]> AND Private Git Repository - prng_gpu.git/blob - prng_gpu.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
32055e7c41eadc7c7c62f8534bbf6b752d48f894
[prng_gpu.git] / prng_gpu.tex
1 %\documentclass{article}
2 \documentclass[10pt,journal,letterpaper,compsoc]{IEEEtran}
3 \usepackage[utf8]{inputenc}
4 \usepackage[T1]{fontenc}
5 \usepackage{fullpage}
6 \usepackage{fancybox}
7 \usepackage{amsmath}
8 \usepackage{amscd}
9 \usepackage{moreverb}
10 \usepackage{commath}
11 \usepackage[ruled,vlined]{algorithm2e}
12 \usepackage{listings}
13 \usepackage[standard]{ntheorem}
14 \usepackage{algorithmic}
15 \usepackage{slashbox}
16 \usepackage{ctable}
17 \usepackage{cite}
18 \usepackage{tabularx}
19 \usepackage{multirow}
20 % Pour mathds : les ensembles IR, IN, etc.
21 \usepackage{dsfont}
22
23 % Pour avoir des intervalles d'entiers
24 \usepackage{stmaryrd}
25
26 \usepackage{graphicx}
27 % Pour faire des sous-figures dans les figures
28 \usepackage{subfigure}
29 \usepackage{xr-hyper}
30 \usepackage{hyperref}
31 \externaldocument[A-]{supplementary}
32
33
34
35 \newtheorem{notation}{Notation}
36
37 \newcommand{\X}{\mathcal{X}}
38 \newcommand{\Go}{G_{f_0}}
39 \newcommand{\B}{\mathds{B}}
40 \newcommand{\N}{\mathds{N}}
41 \newcommand{\BN}{\mathds{B}^\mathsf{N}}
42 \let\sur=\overline
43
44 \newcommand{\alert}[1]{\begin{color}{blue}\textit{#1}\end{color}}
45
46
47
48 \title{Efficient and Cryptographically Secure Generation of Chaotic Pseudorandom Numbers on GPU}
49 \begin{document}
50
51 \author{Jacques M. Bahi, Rapha\"{e}l Couturier,  Christophe
52 Guyeux, and Pierre-Cyrille Héam\thanks{Authors in alphabetic order}}
53    
54
55 \IEEEcompsoctitleabstractindextext{
56 \begin{abstract}
57 In this paper we present a new pseudorandom number generator (PRNG) on
58 graphics processing units  (GPU). This PRNG is based  on the so-called chaotic iterations and
59 it is thus chaotic according to the Devaney's  formulation. We propose  an efficient
60 implementation  for  GPU that successfully passes the   {\it BigCrush} tests, deemed to be the  hardest
61 battery of tests in TestU01.  Experiments show that this PRNG can generate
62 about 20 billion of random numbers  per second on Tesla C1060 and NVidia GTX280
63 cards.
64 It is then established that, under reasonable assumptions, the proposed PRNG can be cryptographically 
65 secure.
66 A chaotic version of the Blum-Goldwasser asymmetric key encryption scheme is finally proposed.
67
68
69 \end{abstract}
70 }
71
72 \maketitle
73
74 \IEEEdisplaynotcompsoctitleabstractindextext
75 \IEEEpeerreviewmaketitle
76
77
78 \section{Introduction}
79
80 Randomness is of importance in many fields such as scientific simulations or cryptography. 
81 ``Random numbers'' can mainly be generated either by a deterministic and reproducible algorithm
82 called a pseudorandom number generator (PRNG), or by a physical non-deterministic 
83 process having all the characteristics of a random noise, called a truly random number
84 generator (TRNG). 
85 In this paper, we focus on reproducible generators, useful for instance in
86 Monte-Carlo based simulators or in several cryptographic schemes.
87 These domains need PRNGs that are statistically irreproachable. 
88 In some fields such as in numerical simulations, speed is a strong requirement
89 that is usually attained by using parallel architectures. In that case,
90 a recurrent problem is that a deflation of the statistical qualities is often
91 reported, when the parallelization of a good PRNG is realized.
92 This is why ad-hoc PRNGs for each possible architecture must be found to
93 achieve both speed and randomness.
94 On the other side, speed is not the main requirement in cryptography: the great
95 need is to define \emph{secure} generators able to withstand malicious
96 attacks. Roughly speaking, an attacker should not be able in practice to make 
97 the distinction between numbers obtained with the secure generator and a true random
98 sequence.  However, in an equivalent formulation, he or she should not be
99 able (in practice) to predict the next bit of the generator, having the knowledge of all the 
100 binary digits that have been already released. ``Being able in practice'' refers here
101 to the possibility to achieve this attack in polynomial time, and to the exponential growth
102 of the difficulty of this challenge when the size of the parameters of the PRNG increases.
103
104
105 Finally, a small part of the community working in this domain focuses on a
106 third requirement, that is to define chaotic generators.
107 The main idea is to take benefits from a chaotic dynamical system to obtain a
108 generator that is unpredictable, disordered, sensible to its seed, or in other word chaotic.
109 Their desire is to map a given chaotic dynamics into a sequence that seems random 
110 and unassailable due to chaos.
111 However, the chaotic maps used as a pattern are defined in the real line 
112 whereas computers deal with finite precision numbers.
113 This distortion leads to a deflation of both chaotic properties and speed.
114 Furthermore, authors of such chaotic generators often claim their PRNG
115 as secure due to their chaos properties, but there is no obvious relation
116 between chaos and security as it is understood in cryptography.
117 This is why the use of chaos for PRNG still remains marginal and disputable.
118
119 The authors' opinion is that topological properties of disorder, as they are
120 properly defined in the mathematical theory of chaos, can reinforce the quality
121 of a PRNG. But they are not substitutable for security or statistical perfection.
122 Indeed, to the authors' mind, such properties can be useful in the two following situations. On the
123 one hand, a post-treatment based on a chaotic dynamical system can be applied
124 to a PRNG statistically deflective, in order to improve its statistical 
125 properties. Such an improvement can be found, for instance, in~\cite{bgw09:ip,bcgr11:ip}.
126 On the other hand, chaos can be added to a fast, statistically perfect PRNG and/or a
127 cryptographically secure one, in case where chaos can be of interest,
128 \emph{only if these last properties are not lost during
129 the proposed post-treatment}. Such an assumption is behind this research work.
130 It leads to the attempts to define a 
131 family of PRNGs that are chaotic while being fast and statistically perfect,
132 or cryptographically secure.
133 Let us finish this paragraph by noticing that, in this paper, 
134 statistical perfection refers to the ability to pass the whole 
135 {\it BigCrush} battery of tests, which is widely considered as the most
136 stringent statistical evaluation of a sequence claimed as random.
137 This battery can be found in the well-known TestU01 package~\cite{LEcuyerS07}.
138 More precisely, each time we performed a test on a PRNG, we ran it
139 twice in order to observe if all $p-$values are inside [0.01, 0.99]. In
140 fact, we observed that few $p-$values (less than ten) are sometimes
141 outside this interval but inside [0.001, 0.999], so that is why a
142 second run allows us to confirm that the values outside are not for
143 the same test. With this approach all our PRNGs pass the {\it
144   BigCrush} successfully and all $p-$values are at least once inside
145 [0.01, 0.99].
146 Chaos, for its part, refers to the well-established definition of a
147 chaotic dynamical system proposed by Devaney~\cite{Devaney}.
148
149 In a previous work~\cite{bgw09:ip,guyeux10} we have proposed a post-treatment on PRNGs making them behave
150 as a chaotic dynamical system. Such a post-treatment leads to a new category of
151 PRNGs. We have shown that proofs of Devaney's chaos can be established for this
152 family, and that the sequence obtained after this post-treatment can pass the
153 NIST~\cite{Nist10}, DieHARD~\cite{Marsaglia1996}, and TestU01~\cite{LEcuyerS07} batteries of tests, even if the inputted generators
154 cannot.
155 The proposition of this paper is to improve widely the speed of the formerly
156 proposed generator, without any lack of chaos or statistical properties.
157 In particular, a version of this PRNG on graphics processing units (GPU)
158 is proposed.
159 Although GPU was initially designed  to accelerate
160 the manipulation of  images, they are nowadays commonly  used in many scientific
161 applications. Therefore,  it is important  to be able to  generate pseudorandom
162 numbers inside a GPU when a scientific application runs in it. This remark
163 motivates our proposal of a chaotic and statistically perfect PRNG for GPU.  
164 Such device
165 allows us to generate almost 20 billion of pseudorandom numbers per second.
166 Furthermore, we show that the proposed post-treatment preserves the
167 cryptographical security of the inputted PRNG, when this last has such a 
168 property.
169 Last, but not least, we propose a rewriting of the Blum-Goldwasser asymmetric
170 key encryption protocol by using the proposed method.
171
172
173 {\bf Main contributions.} In this paper a new PRNG using chaotic iteration
174 is defined. From a theoretical point of view, it is proven that it has fine
175 topological chaotic properties and that it is cryptographically secured (when
176 the initial PRNG is also cryptographically secured). From a practical point of
177 view, experiments point out a very good statistical behavior. An optimized
178 original implementation of this PRNG is also proposed and experimented.
179 Pseudorandom numbers are generated at a rate of 20GSamples/s, which is faster
180 than in~\cite{conf/fpga/ThomasHL09,Marsaglia2003} (and with a better
181 statistical behavior). Experiments are also provided using BBS as the initial
182 random generator. The generation speed is significantly weaker.
183 Note also that an original qualitative comparison between topological chaotic
184 properties and statistical test is also proposed.
185
186
187
188
189 The remainder of this paper  is organized as follows. In Section~\ref{section:related
190   works} we  review some GPU implementations  of PRNGs.  Section~\ref{section:BASIC
191   RECALLS} gives some basic recalls  on the well-known Devaney's formulation of chaos, 
192   and on an iteration process called ``chaotic
193 iterations'' on which the post-treatment is based. 
194 The proposed PRNG and its proof of chaos are given in  Section~\ref{sec:pseudorandom}.
195 Section~\ref{sec:efficient PRNG} %{The generation of pseudorandom sequence} %illustrates the statistical
196 %improvement related to the chaotic iteration based post-treatment, for
197 %our previously released PRNGs and
198  contains a new efficient 
199 implementation on CPU.
200  Section~\ref{sec:efficient PRNG
201   gpu}   describes and evaluates theoretically  the  GPU   implementation. 
202 Such generators are experimented in 
203 Section~\ref{sec:experiments}.
204 We show in Section~\ref{sec:security analysis} that, if the inputted
205 generator is cryptographically secure, then it is the case too for the
206 generator provided by the post-treatment.
207 A practical
208 security evaluation is also outlined in Section~\ref{sec:Practicak evaluation}.
209 Such a proof leads to the proposition of a cryptographically secure and
210 chaotic generator on GPU based on the famous Blum Blum Shub
211 in Section~\ref{sec:CSGPU} and to an improvement of the
212 Blum-Goldwasser protocol in Sect.~\ref{Blum-Goldwasser}.
213 This research work ends by a conclusion section, in which the contribution is
214 summarized and intended future work is presented.
215
216
217
218
219 \section{Related work on GPU based PRNGs}
220 \label{section:related works}
221
222 Numerous research works on defining GPU based PRNGs have already been proposed  in the
223 literature, so that exhaustivity is impossible.
224 This is why authors of this document only give reference to the most significant attempts 
225 in this domain, from their subjective point of view. 
226 The  quantity of pseudorandom numbers generated per second is mentioned here 
227 only when the information is given in the related work. 
228 A million numbers  per second will be simply written as
229 1MSample/s whereas a billion numbers per second is 1GSample/s.
230
231 In \cite{Pang:2008:cec}  a PRNG based on  cellular automata is defined
232 with no  requirement to an high  precision  integer   arithmetic  or to any bitwise
233 operations. Authors can   generate  about
234 3.2MSamples/s on a GeForce 7800 GTX GPU, which is quite an old card now.
235 However, there is neither a mention of statistical tests nor any proof of
236 chaos or cryptography in this document.
237
238 In \cite{ZRKB10}, the authors propose  different versions of efficient GPU PRNGs
239 based on  Lagged Fibonacci or Hybrid  Taus.  They have  used these
240 PRNGs   for  Langevin   simulations   of  biomolecules   fully  implemented   on
241 GPU. Performances of  the GPU versions are far better than  those obtained with a
242 CPU, and these PRNGs succeed to pass the {\it BigCrush} battery of TestU01. 
243 However the evaluations of the proposed PRNGs are only statistical ones.
244
245
246 Authors of~\cite{conf/fpga/ThomasHL09}  have studied the  implementation of some
247 PRNGs on  different computing architectures: CPU,  field-programmable gate array
248 (FPGA), massively parallel  processors, and GPU. This study is of interest, because
249 the  performance  of the  same  PRNGs on  different architectures are compared. 
250 FPGA appears as  the  fastest  and the most
251 efficient architecture, providing the fastest number of generated pseudorandom numbers
252 per joule. 
253 However, we notice that authors can ``only'' generate between 11 and 16GSamples/s
254 with a GTX 280  GPU, which should be compared with
255 the results presented in this document.
256 We can remark too that the PRNGs proposed in~\cite{conf/fpga/ThomasHL09} are only
257 able to pass the {\it Crush} battery, which is far easier than the {\it Big Crush} one.
258
259 Lastly, Cuda  has developed  a  library for  the  generation of  pseudorandom numbers  called
260 Curand~\cite{curand11}.        Several       PRNGs        are       implemented, among
261 other things 
262 Xorwow~\cite{Marsaglia2003} and  some variants of Sobol. The  tests reported show that
263 their  fastest version provides  15GSamples/s on  the new  Fermi C2050  card. 
264 But their PRNGs cannot pass the whole TestU01 battery (only one test is failed).
265 \newline
266 \newline
267 We can finally remark that, to the best of our knowledge, no GPU implementation has been proven to be chaotic, and the cryptographically secure property has surprisingly never been considered.
268
269 \section{Basic Recalls}
270 \label{section:BASIC RECALLS}
271
272 This section is devoted to basic definitions and terminologies in the fields of
273 topological chaos and chaotic iterations. We assume the reader is familiar
274 with basic notions on topology (see for instance~\cite{Devaney}).
275
276
277 \subsection{Devaney's Chaotic Dynamical Systems}
278 \label{subsec:Devaney}
279 In the sequel $S^{n}$ denotes the $n^{th}$ term of a sequence $S$ and $V_{i}$
280 denotes the $i^{th}$ component of a vector $V$. $f^{k}=f\circ ...\circ f$
281 is for the $k^{th}$ composition of a function $f$. Finally, the following
282 notation is used: $\llbracket1;N\rrbracket=\{1,2,\hdots,N\}$.
283
284
285 Consider a topological space $(\mathcal{X},\tau)$ and a continuous function $f :
286 \mathcal{X} \rightarrow \mathcal{X}$.
287
288 \begin{definition}
289 The function $f$ is said to be \emph{topologically transitive} if, for any pair of open sets
290 $U,V \subset \mathcal{X}$, there exists $k>0$ such that $f^k(U) \cap V \neq
291 \varnothing$.
292 \end{definition}
293
294 \begin{definition}
295 An element $x$ is a \emph{periodic point} for $f$ of period $n\in \mathds{N}^*$
296 if $f^{n}(x)=x$.% The set of periodic points of $f$ is denoted $Per(f).$
297 \end{definition}
298
299 \begin{definition}
300 $f$ is said to be \emph{regular} on $(\mathcal{X}, \tau)$ if the set of periodic
301 points for $f$ is dense in $\mathcal{X}$: for any point $x$ in $\mathcal{X}$,
302 any neighborhood of $x$ contains at least one periodic point (without
303 necessarily the same period).
304 \end{definition}
305
306
307 \begin{definition}[Devaney's formulation of chaos~\cite{Devaney}]
308 The function $f$ is said to be \emph{chaotic} on $(\mathcal{X},\tau)$ if $f$ is regular and
309 topologically transitive.
310 \end{definition}
311
312 The chaos property is strongly linked to the notion of ``sensitivity'', defined
313 on a metric space $(\mathcal{X},d)$ by:
314
315 \begin{definition}
316 \label{sensitivity} The function $f$ has \emph{sensitive dependence on initial conditions}
317 if there exists $\delta >0$ such that, for any $x\in \mathcal{X}$ and any
318 neighborhood $V$ of $x$, there exist $y\in V$ and $n > 0$ such that
319 $d\left(f^{n}(x), f^{n}(y)\right) >\delta $.
320
321 The constant $\delta$ is called the \emph{constant of sensitivity} of $f$.
322 \end{definition}
323
324 Indeed, Banks \emph{et al.} have proven in~\cite{Banks92} that when $f$ is
325 chaotic and $(\mathcal{X}, d)$ is a metric space, then $f$ has the property of
326 sensitive dependence on initial conditions (this property was formerly an
327 element of the definition of chaos). To sum up, quoting Devaney
328 in~\cite{Devaney}, a chaotic dynamical system ``is unpredictable because of the
329 sensitive dependence on initial conditions. It cannot be broken down or
330 simplified into two subsystems which do not interact because of topological
331 transitivity. And in the midst of this random behavior, we nevertheless have an
332 element of regularity''. Fundamentally different behaviors are consequently
333 possible and occur in an unpredictable way.
334
335
336
337 \subsection{Chaotic Iterations}
338 \label{sec:chaotic iterations}
339
340
341 Let us consider  a \emph{system} with a finite  number $\mathsf{N} \in
342 \mathds{N}^*$ of elements  (or \emph{cells}), so that each  cell has a
343 Boolean  \emph{state}. Having $\mathsf{N}$ Boolean values for these
344  cells  leads to the definition of a particular \emph{state  of the
345 system}. A sequence which  elements belong to $\llbracket 1;\mathsf{N}
346 \rrbracket $ is called a \emph{strategy}. The set of all strategies is
347 denoted by $\llbracket 1, \mathsf{N} \rrbracket^\mathds{N}.$
348
349 \begin{definition}
350 \label{Def:chaotic iterations}
351 The      set       $\mathds{B}$      denoting      $\{0,1\}$,      let
352 $f:\mathds{B}^{\mathsf{N}}\longrightarrow  \mathds{B}^{\mathsf{N}}$ be
353 a  function  and  $S\in  \llbracket 1, \mathsf{N} \rrbracket^\mathds{N}$  be  a  ``strategy''.  The  so-called
354 \emph{chaotic      iterations}     are     defined      by     $x^0\in
355 \mathds{B}^{\mathsf{N}}$ and
356 \begin{equation}
357 \forall    n\in     \mathds{N}^{\ast     },    \forall     i\in
358 \llbracket1;\mathsf{N}\rrbracket ,x_i^n=\left\{
359 \begin{array}{ll}
360   x_i^{n-1} &  \text{ if  }S^n\neq i \\
361   \left(f(x^{n-1})\right)_{S^n} & \text{ if }S^n=i.
362 \end{array}\right.
363 \end{equation}
364 \end{definition}
365
366 In other words, at the $n^{th}$ iteration, only the $S^{n}-$th cell is
367 \textquotedblleft  iterated\textquotedblright .  Note  that in  a more
368 general  formulation,  $S^n$  can   be  a  subset  of  components  and
369 $\left(f(x^{n-1})\right)_{S^{n}}$      can     be      replaced     by
370 $\left(f(x^{k})\right)_{S^{n}}$, where  $k<n$, describing for example,
371 delays  transmission~\cite{Robert1986,guyeux10}.  Finally,  let us  remark that
372 the term  ``chaotic'', in  the name of  these iterations,  has \emph{a
373 priori} no link with the mathematical theory of chaos, presented above.
374
375
376 Let us now recall how to define a suitable metric space where chaotic iterations
377 are continuous. For further explanations, see, e.g., \cite{guyeux10}.
378
379 Let $\delta $ be the \emph{discrete Boolean metric}, $\delta
380 (x,y)=0\Leftrightarrow x=y.$ Given a function $f$, define the function
381 $F_{f}:  \llbracket1;\mathsf{N}\rrbracket\times \mathds{B}^{\mathsf{N}} 
382 \longrightarrow  \mathds{B}^{\mathsf{N}}$
383 \begin{equation*}
384 \begin{array}{lrll}
385 & (k,E) & \longmapsto & \left( E_{j}.\delta (k,j)+ f(E)_{k}.\overline{\delta
386 (k,j)}\right) _{j\in \llbracket1;\mathsf{N}\rrbracket}%
387 \end{array}%
388 \end{equation*}%
389 \noindent where + and . are the Boolean addition and product operations.
390 Consider the phase space:
391 \begin{equation}
392 \mathcal{X} = \llbracket 1 ; \mathsf{N} \rrbracket^\mathds{N} \times
393 \mathds{B}^\mathsf{N},
394 \end{equation}
395 \noindent and the map defined on $\mathcal{X}$:
396 \begin{equation}
397 G_f\left(S,E\right) = \left(\sigma(S), F_f(i(S),E)\right), \label{Gf}
398 \end{equation}
399 \noindent where $\sigma$ is the \emph{shift} function defined by $\sigma
400 (S^{n})_{n\in \mathds{N}}\in \llbracket 1, \mathsf{N} \rrbracket^\mathds{N}\longrightarrow (S^{n+1})_{n\in
401 \mathds{N}}\in \llbracket 1, \mathsf{N} \rrbracket^\mathds{N}$ and $i$ is the \emph{initial function} 
402 $i:(S^{n})_{n\in \mathds{N}} \in \llbracket 1, \mathsf{N} \rrbracket^\mathds{N}\longrightarrow S^{0}\in \llbracket
403 1;\mathsf{N}\rrbracket$. Then the chaotic iterations proposed in
404 Definition \ref{Def:chaotic iterations} can be described by the following iterations:
405 \begin{equation}
406 \left\{
407 \begin{array}{l}
408 X^0 \in \mathcal{X} \\
409 X^{k+1}=G_{f}(X^k).%
410 \end{array}%
411 \right.
412 \end{equation}%
413
414 With this formulation, a shift function appears as a component of chaotic
415 iterations. The shift function is a famous example of a chaotic
416 map~\cite{Devaney} but its presence is not sufficient enough to claim $G_f$ as
417 chaotic. 
418 To study this claim, a new distance between two points $X = (S,E), Y =
419 (\check{S},\check{E})\in
420 \mathcal{X}$ has been introduced in \cite{guyeux10} as follows:
421 \begin{equation}
422 d(X,Y)=d_{e}(E,\check{E})+d_{s}(S,\check{S}),
423 \end{equation}
424 \noindent where
425 \begin{equation}
426 \left\{
427 \begin{array}{lll}
428 \displaystyle{d_{e}(E,\check{E})} & = & \displaystyle{\sum_{k=1}^{\mathsf{N}%
429 }\delta (E_{k},\check{E}_{k})}, \\
430 \displaystyle{d_{s}(S,\check{S})} & = & \displaystyle{\dfrac{9}{\mathsf{N}}%
431 \sum_{k=1}^{\infty }\dfrac{|S^k-\check{S}^k|}{10^{k}}}.%
432 \end{array}%
433 \right.
434 \end{equation}
435
436
437 This new distance has been introduced to satisfy the following requirements.
438 \begin{itemize}
439 \item When the number of different cells between two systems is increasing, then
440 their distance should increase too.
441 \item In addition, if two systems present the same cells and their respective
442 strategies start with the same terms, then the distance between these two points
443 must be small because the evolution of the two systems will be the same for a
444 while. Indeed, both dynamical systems start with the same initial condition,
445 use the same update function, and as strategies are the same for a while, furthermore
446 updated components are the same as well.
447 \end{itemize}
448 The distance presented above follows these recommendations. Indeed, if the floor
449 value $\lfloor d(X,Y)\rfloor $ is equal to $n$, then the systems $E, \check{E}$
450 differ in $n$ cells ($d_e$ is indeed the Hamming distance). In addition, $d(X,Y) - \lfloor d(X,Y) \rfloor $ is a
451 measure of the differences between strategies $S$ and $\check{S}$. More
452 precisely, this floating part is less than $10^{-k}$ if and only if the first
453 $k$ terms of the two strategies are equal. Moreover, if the $k^{th}$ digit is
454 nonzero, then the $k^{th}$ terms of the two strategies are different.
455 The impact of this choice for a distance will be investigated at the end of the document.
456
457 Finally, it has been established in \cite{guyeux10} that,
458
459 \begin{proposition}
460 Let $f$ be a map from $\mathds{B}^\mathsf{N}$ to itself. Then $G_{f}$ is continuous in
461 the metric space $(\mathcal{X},d)$.
462 \end{proposition}
463
464 The chaotic property of $G_f$ has been firstly established for the vectorial
465 Boolean negation $f_0(x_1,\hdots, x_\mathsf{N}) =  (\overline{x_1},\hdots, \overline{x_\mathsf{N}})$ \cite{guyeux10}. To obtain a characterization, we have secondly
466 introduced the notion of asynchronous iteration graph recalled bellow.
467
468 Let $f$ be a map from $\mathds{B}^\mathsf{N}$ to itself. The
469 {\emph{asynchronous iteration graph}} associated with $f$ is the
470 directed graph $\Gamma(f)$ defined by: the set of vertices is
471 $\mathds{B}^\mathsf{N}$; for all $x\in\mathds{B}^\mathsf{N}$ and 
472 $i\in \llbracket1;\mathsf{N}\rrbracket$,
473 the graph $\Gamma(f)$ contains an arc from $x$ to $F_f(i,x)$. 
474 The relation between $\Gamma(f)$ and $G_f$ is clear: there exists a
475 path from $x$ to $x'$ in $\Gamma(f)$ if and only if there exists a
476 strategy $s$ such that the parallel iteration of $G_f$ from the
477 initial point $(s,x)$ reaches the point $x'$.
478 We have then proven in \cite{bcgr11:ip} that,
479
480
481 \begin{theorem}
482 \label{Th:Caractérisation   des   IC   chaotiques}  
483 Let $f:\mathds{B}^\mathsf{N}\to\mathds{B}^\mathsf{N}$. $G_f$ is chaotic  (according to  Devaney) 
484 if and only if $\Gamma(f)$ is strongly connected.
485 \end{theorem}
486
487 Finally, we have established in \cite{bcgr11:ip} that,
488 \begin{theorem}
489   Let $f: \mathds{B}^{n} \rightarrow \mathds{B}^{n}$, $\Gamma(f)$ its
490   iteration graph, $\check{M}$ its adjacency
491   matrix and $M$
492   a $n\times n$ matrix defined by 
493   $
494   M_{ij} = \frac{1}{n}\check{M}_{ij}$ %\textrm{ 
495   if $i \neq j$ and  
496   $M_{ii} = 1 - \frac{1}{n} \sum\limits_{j=1, j\neq i}^n \check{M}_{ij}$ otherwise.
497   
498   If $\Gamma(f)$ is strongly connected, then 
499   the output of the PRNG detailed in Algorithm~\ref{CI Algorithm} follows 
500   a law that tends to the uniform distribution 
501   if and only if $M$ is a double stochastic matrix.
502 \end{theorem} 
503
504
505 These results of chaos and uniform distribution have led us to study the possibility of building a
506 pseudorandom number generator (PRNG) based on the chaotic iterations. 
507 As $G_f$, defined on the domain   $\llbracket 1 ;  \mathsf{N} \rrbracket^{\mathds{N}} 
508 \times \mathds{B}^\mathsf{N}$, is built from Boolean networks $f : \mathds{B}^\mathsf{N}
509 \rightarrow \mathds{B}^\mathsf{N}$, we can preserve the theoretical properties on $G_f$
510 during implementations (due to the discrete nature of $f$). Indeed, it is as if
511 $\mathds{B}^\mathsf{N}$ represents the memory of the computer whereas $\llbracket 1 ;  \mathsf{N}
512 \rrbracket^{\mathds{N}}$ is its input stream (the seeds, for instance, in PRNG, or a physical noise in TRNG).
513 Let us finally remark that the vectorial negation satisfies the hypotheses of both theorems above.
514
515 \section{Application to Pseudorandomness}
516 \label{sec:pseudorandom}
517
518 \subsection{A First Pseudorandom Number Generator}
519
520 We have proposed in~\cite{bgw09:ip} a new family of generators that receives 
521 two PRNGs as inputs. These two generators are mixed with chaotic iterations, 
522 leading thus to a new PRNG that 
523 should improve the statistical properties of each
524 generator taken alone. 
525 Furthermore, the generator obtained in this way possesses various chaos properties that none of the generators used as present input.
526
527
528
529 \begin{algorithm}[h!]
530 \begin{small}
531 \KwIn{a function $f$, an iteration number $b$, an initial configuration $x^0$
532 ($n$ bits)}
533 \KwOut{a configuration $x$ ($n$ bits)}
534 $x\leftarrow x^0$\;
535 $k\leftarrow b + PRNG_1(b)$\;
536 \For{$i=0,\dots,k$}
537 {
538 $s\leftarrow{PRNG_2(n)}$\;
539 $x\leftarrow{F_f(s,x)}$\;
540 }
541 return $x$\;
542 \end{small}
543 \caption{An arbitrary round of $Old~ CI~ PRNG_f(PRNG_1,PRNG_2)$}
544 \label{CI Algorithm}
545 \end{algorithm}
546
547
548
549
550 This generator is synthesized in Algorithm~\ref{CI Algorithm}.
551 It takes as input: a Boolean function $f$ satisfying Theorem~\ref{Th:Caractérisation   des   IC   chaotiques};
552 an integer $b$, ensuring that the number of executed iterations
553 between two outputs is at least $b$
554 and at most $2b+1$; and an initial configuration $x^0$.
555 It returns the new generated configuration $x$.  Internally, it embeds two
556 inputted generators $PRNG_i(k), i=1,2$,
557  which must return integers
558 uniformly distributed
559 into $\llbracket 1 ; k \rrbracket$.
560 For instance, these PRNGs can be the \textit{XORshift}~\cite{Marsaglia2003},
561 being a category of very fast PRNGs designed by George Marsaglia
562 that repeatedly uses the transform of exclusive or (XOR, $\oplus$) on a number
563 with a bit shifted version of it. Such a PRNG, which has a period of
564 $2^{32}-1=4.29\times10^9$, is summed up in Algorithm~\ref{XORshift}. 
565 This XORshift, or any other reasonable PRNG, is used
566 in our own generator to compute both the number of iterations between two
567 outputs (provided by $PRNG_1$) and the strategy elements ($PRNG_2$).
568
569 %This former generator has successively passed various batteries of statistical tests, as the NIST~\cite{bcgr11:ip}, DieHARD~\cite{Marsaglia1996}, and TestU01~\cite{LEcuyerS07} ones.
570
571
572 \begin{algorithm}[h!]
573 \begin{small}
574 \KwIn{the internal configuration $z$ (a 32-bit word)}
575 \KwOut{$y$ (a 32-bit word)}
576 $z\leftarrow{z\oplus{(z\ll13)}}$\;
577 $z\leftarrow{z\oplus{(z\gg17)}}$\;
578 $z\leftarrow{z\oplus{(z\ll5)}}$\;
579 $y\leftarrow{z}$\;
580 return $y$\;
581 \end{small}
582 \caption{An arbitrary round of \textit{XORshift} algorithm}
583 \label{XORshift}
584 \end{algorithm}
585
586
587 \subsection{A ``New CI PRNG''}
588
589 In order to make the Old CI PRNG usable in practice, we have proposed 
590 an adapted version of the chaotic iteration based generator in~\cite{bg10:ip}.
591 In this ``New CI PRNG'', we prevent a given bit from changing twice between two outputs.
592 This new generator is designed by the following process. 
593
594 First of all, some chaotic iterations have to be done to generate a sequence 
595 $\left(x^n\right)_{n\in\mathds{N}} \in \left(\mathds{B}^{32}\right)^\mathds{N}$ 
596 of Boolean vectors, which are the successive states of the iterated system. 
597 Some of these vectors will be randomly extracted and our pseudorandom bit 
598 flow will be constituted by their components. Such chaotic iterations are 
599 realized as follows. Initial state $x^0 \in \mathds{B}^{32}$ is a Boolean 
600 vector taken as a seed and chaotic strategy $\left(S^n\right)_{n\in\mathds{N}}\in 
601 \llbracket 1, 32 \rrbracket^\mathds{N}$ is
602 an \emph{irregular decimation} of $PRNG_2$ sequence, as described in 
603 Algorithm~\ref{Chaotic iteration1}.
604
605 Then, at each iteration, only the $S^n$-th component of state $x^n$ is 
606 updated, as follows: $x_i^n = x_i^{n-1}$ if $i \neq S^n$, else $x_i^n = \overline{x_i^{n-1}}$.
607 Such a procedure is equivalent to achieving chaotic iterations with
608 the Boolean vectorial negation $f_0$ and some well-chosen strategies.
609 Finally, some $x^n$ are selected
610 by a sequence $m^n$ as the pseudorandom bit sequence of our generator.
611 $(m^n)_{n \in \mathds{N}} \in \mathcal{M}^\mathds{N}$ is computed from $PRNG_1$, where $\mathcal{M}\subset \mathds{N}^*$ is a finite nonempty set of integers.
612
613 The basic design procedure of the New CI generator is summarized in Algorithm~\ref{Chaotic iteration1}.
614 The internal state is $x$, the output state is $r$. $a$ and $b$ are those computed by the two input
615 PRNGs. Lastly, the value $g(a)$ is an integer defined as in Eq.~\ref{Formula}.
616 This function must be chosen such that the outputs of the resulted PRNG are uniform in $\llbracket 0, 2^\mathsf{N}-1 \rrbracket$. Function of \eqref{Formula} achieves this
617 goal (other candidates and more information can be found in ~\cite{bg10:ip}).
618
619 \begin{equation}
620 \label{Formula}
621 m^n = g(y^n)=
622 \left\{
623 \begin{array}{l}
624 0 \text{ if }0 \leqslant{y^n}<{C^0_{32}},\\
625 1 \text{ if }{C^0_{32}} \leqslant{y^n}<\sum_{i=0}^1{C^i_{32}},\\
626 2 \text{ if }\sum_{i=0}^1{C^i_{32}} \leqslant{y^n}<\sum_{i=0}^2{C^i_{32}},\\
627 \vdots~~~~~ ~~\vdots~~~ ~~~~\\
628 N \text{ if }\sum_{i=0}^{N-1}{C^i_{32}}\leqslant{y^n}<1.\\
629 \end{array}
630 \right.
631 \end{equation}
632
633 \begin{algorithm}
634 \textbf{Input:} the internal state $x$ (32 bits)\\
635 \textbf{Output:} a state $r$ of 32 bits
636 \begin{algorithmic}[1]
637 \FOR{$i=0,\dots,N$}
638 {
639 \STATE$d_i\leftarrow{0}$\;
640 }
641 \ENDFOR
642 \STATE$a\leftarrow{PRNG_1()}$\;
643 \STATE$k\leftarrow{g(a)}$\;
644 \WHILE{$i=0,\dots,k$}
645
646 \STATE$b\leftarrow{PRNG_2()~mod~\mathsf{N}}$\;
647 \STATE$S\leftarrow{b}$\;
648     \IF{$d_S=0$}
649     {
650 \STATE      $x_S\leftarrow{ \overline{x_S}}$\;
651 \STATE      $d_S\leftarrow{1}$\;
652
653     }
654     \ELSIF{$d_S=1$}
655     {
656 \STATE      $k\leftarrow{ k+1}$\;
657     }\ENDIF
658 \ENDWHILE\\
659 \STATE $r\leftarrow{x}$\;
660 \STATE return $r$\;
661 \medskip
662 \caption{An arbitrary round of the new CI generator}
663 \label{Chaotic iteration1}
664 \end{algorithmic}
665 \end{algorithm}
666
667 \subsection{Improving the Speed of the Former Generator}
668
669 Instead of updating only one cell at each iteration, we now propose to choose a
670 subset of components and to update them together, for speed improvement. Such a proposition leads 
671 to a kind of merger of the two sequences used in Algorithms 
672 \ref{CI Algorithm} and \ref{Chaotic iteration1}. When the updating function is the vectorial negation,
673 this algorithm can be rewritten as follows:
674
675 \begin{equation}
676 \left\{
677 \begin{array}{l}
678 x^0 \in \llbracket 0, 2^\mathsf{N}-1 \rrbracket, S \in \llbracket 0, 2^\mathsf{N}-1 \rrbracket^\mathds{N} \\
679 \forall n \in \mathds{N}^*, x^n = x^{n-1} \oplus S^n,
680 \end{array}
681 \right.
682 \label{equation Oplus}
683 \end{equation}
684 where $\oplus$ is for the bitwise exclusive or between two integers. 
685 This rewriting can be understood as follows. The $n-$th term $S^n$ of the
686 sequence $S$, which is an integer of $\mathsf{N}$ binary digits, presents
687 the list of cells to update in the state $x^n$ of the system (represented
688 as an integer having $\mathsf{N}$ bits too). More precisely, the $k-$th 
689 component of this state (a binary digit) changes if and only if the $k-$th 
690 digit in the binary decomposition of $S^n$ is 1.
691
692 The single basic component presented in Eq.~\ref{equation Oplus} is of 
693 ordinary use as a good elementary brick in various PRNGs. It corresponds
694 to the following discrete dynamical system in chaotic iterations:
695
696 \begin{equation}
697 \forall    n\in     \mathds{N}^{\ast     },    \forall     i\in
698 \llbracket1;\mathsf{N}\rrbracket ,x_i^n=\left\{
699 \begin{array}{ll}
700   x_i^{n-1} &  \text{ if  } i \notin \mathcal{S}^n \\
701   \left(f(x^{n-1})\right)_{S^n} & \text{ if }i \in \mathcal{S}^n.
702 \end{array}\right.
703 \label{eq:generalIC}
704 \end{equation}
705 where $f$ is the vectorial negation and $\forall n \in \mathds{N}$, 
706 $\mathcal{S}^n \subset \llbracket 1, \mathsf{N} \rrbracket$ is such that
707 $k \in \mathcal{S}^n$ if and only if the $k-$th digit in the binary
708 decomposition of $S^n$ is 1. Such chaotic iterations are more general
709 than the ones presented in Definition \ref{Def:chaotic iterations} because, instead of updating only one term at each iteration,
710 we select a subset of components to change.
711
712
713 Obviously, replacing the previous CI PRNG Algorithms by 
714 Equation~\ref{equation Oplus}, which is possible when the iteration function is
715 the vectorial negation, leads to a speed improvement 
716 (the resulting generator will be referred as ``Xor CI PRNG''
717 in what follows).
718 However, proofs
719 of chaos obtained in~\cite{bg10:ij} have been established
720 only for chaotic iterations of the form presented in Definition 
721 \ref{Def:chaotic iterations}. The question to determine whether the
722 use of more general chaotic iterations to generate pseudorandom numbers 
723 faster, does not deflate their topological chaos properties, has been
724 investigated in Annex~\ref{A-deuxième def}, leading to the following result.
725
726  \begin{theorem}
727  \label{t:chaos des general}
728   The general chaotic iterations defined in Equation~\ref{eq:generalIC}
729 satisfy
730  the Devaney's property of chaos.
731  \end{theorem}
732
733
734 %%RAF proof en supplementary, j'ai mis le theorem.
735 % A vérifier
736
737 % \subsection{Proofs of Chaos of the General Formulation of the Chaotic Iterations}
738 %\label{deuxième def}
739 %The proof is given in Section~\ref{A-deuxième def} of the annex document.
740 %% \label{deuxième def}
741 %% Let us consider the discrete dynamical systems in chaotic iterations having 
742 %% the general form: $\forall    n\in     \mathds{N}^{\ast     }$, $  \forall     i\in
743 %% \llbracket1;\mathsf{N}\rrbracket $,
744
745 %% \begin{equation}
746 %%   x_i^n=\left\{
747 %% \begin{array}{ll}
748 %%   x_i^{n-1} &  \text{ if  } i \notin \mathcal{S}^n \\
749 %%   \left(f(x^{n-1})\right)_{S^n} & \text{ if }i \in \mathcal{S}^n.
750 %% \end{array}\right.
751 %% \label{general CIs}
752 %% \end{equation}
753
754 %% In other words, at the $n^{th}$ iteration, only the cells whose id is
755 %% contained into the set $S^{n}$ are iterated.
756
757 %% Let us now rewrite these general chaotic iterations as usual discrete dynamical
758 %% system of the form $X^{n+1}=f(X^n)$ on an ad hoc metric space. Such a formulation
759 %% is required in order to study the topological behavior of the system.
760
761 %% Let us introduce the following function:
762 %% \begin{equation}
763 %% \begin{array}{cccc}
764 %%  \chi: & \llbracket 1; \mathsf{N} \rrbracket \times \mathcal{P}\left(\llbracket 1; \mathsf{N} \rrbracket\right) & \longrightarrow & \mathds{B}\\
765 %%          & (i,X) & \longmapsto  & \left\{ \begin{array}{ll} 0 & \textrm{if }i \notin X, \\ 1 & \textrm{if }i \in X,  \end{array}\right.
766 %% \end{array} 
767 %% \end{equation}
768 %% where $\mathcal{P}\left(X\right)$ is for the powerset of the set $X$, that is, $Y \in \mathcal{P}\left(X\right) \Longleftrightarrow Y \subset X$.
769
770 %% Given a function $f:\mathds{B}^\mathsf{N} \longrightarrow \mathds{B}^\mathsf{N} $, define the function:
771 %% $F_{f}:  \mathcal{P}\left(\llbracket1;\mathsf{N}\rrbracket \right) \times \mathds{B}^{\mathsf{N}} 
772 %% \longrightarrow \mathds{B}^{\mathsf{N}}$
773 %% \begin{equation*}
774 %% \begin{array}{rll}
775 %%  (P,E) & \longmapsto & \left( E_{j}.\chi (j,P)+f(E)_{j}.\overline{\chi(j,P)}\right) _{j\in \llbracket1;\mathsf{N}\rrbracket}%
776 %% \end{array}%
777 %% \end{equation*}%
778 %% where + and . are the Boolean addition and product operations, and $\overline{x}$ 
779 %% is the negation of the Boolean $x$.
780 %% Consider the phase space:
781 %% \begin{equation}
782 %% \mathcal{X} = \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)^\mathds{N} \times
783 %% \mathds{B}^\mathsf{N},
784 %% \end{equation}
785 %% \noindent and the map defined on $\mathcal{X}$:
786 %% \begin{equation}
787 %% G_f\left(S,E\right) = \left(\sigma(S), F_f(i(S),E)\right), %\label{Gf} %%RAPH, j'ai viré ce label qui existe déjà avant...
788 %% \end{equation}
789 %% \noindent where $\sigma$ is the \emph{shift} function defined by $\sigma
790 %% (S^{n})_{n\in \mathds{N}}\in \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)^\mathds{N}\longrightarrow (S^{n+1})_{n\in
791 %% \mathds{N}}\in \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)^\mathds{N}$ and $i$ is the \emph{initial function} 
792 %% $i:(S^{n})_{n\in \mathds{N}} \in \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)^\mathds{N}\longrightarrow S^{0}\in \mathcal{P}\left(\llbracket 1 ; \mathsf{N} \rrbracket\right)$. 
793 %% Then the general chaotic iterations defined in Equation \ref{general CIs} can 
794 %% be described by the following discrete dynamical system:
795 %% \begin{equation}
796 %% \left\{
797 %% \begin{array}{l}
798 %% X^0 \in \mathcal{X} \\
799 %% X^{k+1}=G_{f}(X^k).%
800 %% \end{array}%
801 %% \right.
802 %% \end{equation}%
803
804 %% Once more, a shift function appears as a component of these general chaotic 
805 %% iterations. 
806
807 %% To study the Devaney's chaos property, a distance between two points 
808 %% $X = (S,E), Y = (\check{S},\check{E})$ of $\mathcal{X}$ must be defined.
809 %% Let us introduce:
810 %% \begin{equation}
811 %% d(X,Y)=d_{e}(E,\check{E})+d_{s}(S,\check{S}),
812 %% \label{nouveau d}
813 %% \end{equation}
814 %% \noindent where $ \displaystyle{d_{e}(E,\check{E})} = \displaystyle{\sum_{k=1}^{\mathsf{N}%
815 %%  }\delta (E_{k},\check{E}_{k})}$  is once more the Hamming distance, and
816 %% $  \displaystyle{d_{s}(S,\check{S})}  =  \displaystyle{\dfrac{9}{\mathsf{N}}%
817 %%  \sum_{k=1}^{\infty }\dfrac{|S^k\Delta {S}^k|}{10^{k}}}$,
818 %% %%RAPH : ici, j'ai supprimé tous les sauts à la ligne
819 %% %% \begin{equation}
820 %% %% \left\{
821 %% %% \begin{array}{lll}
822 %% %% \displaystyle{d_{e}(E,\check{E})} & = & \displaystyle{\sum_{k=1}^{\mathsf{N}%
823 %% %% }\delta (E_{k},\check{E}_{k})} \textrm{ is once more the Hamming distance}, \\
824 %% %% \displaystyle{d_{s}(S,\check{S})} & = & \displaystyle{\dfrac{9}{\mathsf{N}}%
825 %% %% \sum_{k=1}^{\infty }\dfrac{|S^k\Delta {S}^k|}{10^{k}}}.%
826 %% %% \end{array}%
827 %% %% \right.
828 %% %% \end{equation}
829 %% where $|X|$ is the cardinality of a set $X$ and $A\Delta B$ is for the symmetric difference, defined for sets A, B as
830 %% $A\,\Delta\,B = (A \setminus B) \cup (B \setminus A)$.
831
832
833 %% \begin{proposition}
834 %% The function $d$ defined in Eq.~\ref{nouveau d} is a metric on $\mathcal{X}$.
835 %% \end{proposition}
836
837 %% \begin{proof}
838 %%  $d_e$ is the Hamming distance. We will prove that $d_s$ is a distance
839 %% too, thus $d$, as being the sum of two distances, will also be a distance.
840 %%  \begin{itemize}
841 %% \item Obviously, $d_s(S,\check{S})\geqslant 0$, and if $S=\check{S}$, then 
842 %% $d_s(S,\check{S})=0$. Conversely, if $d_s(S,\check{S})=0$, then 
843 %% $\forall k \in \mathds{N}, |S^k\Delta {S}^k|=0$, and so $\forall k, S^k=\check{S}^k$.
844 %%  \item $d_s$ is symmetric 
845 %% ($d_s(S,\check{S})=d_s(\check{S},S)$) due to the commutative property
846 %% of the symmetric difference. 
847 %% \item Finally, $|S \Delta S''| = |(S \Delta \varnothing) \Delta S''|= |S \Delta (S'\Delta S') \Delta S''|= |(S \Delta S') \Delta (S' \Delta S'')|\leqslant |S \Delta S'| + |S' \Delta S''|$, 
848 %% and so for all subsets $S,S',$ and $S''$ of $\llbracket 1, \mathsf{N} \rrbracket$, 
849 %% we have $d_s(S,S'') \leqslant d_e(S,S')+d_s(S',S'')$, and the triangle
850 %% inequality is obtained.
851 %%  \end{itemize}
852 %% \end{proof}
853
854
855 %% Before being able to study the topological behavior of the general 
856 %% chaotic iterations, we must first establish that:
857
858 %% \begin{proposition}
859 %%  For all $f:\mathds{B}^\mathsf{N} \longrightarrow \mathds{B}^\mathsf{N} $, the function $G_f$ is continuous on 
860 %% $\left( \mathcal{X},d\right)$.
861 %% \end{proposition}
862
863
864 %% \begin{proof}
865 %% We use the sequential continuity.
866 %% Let $(S^n,E^n)_{n\in \mathds{N}}$ be a sequence of the phase space $%
867 %% \mathcal{X}$, which converges to $(S,E)$. We will prove that $\left(
868 %% G_{f}(S^n,E^n)\right) _{n\in \mathds{N}}$ converges to $\left(
869 %% G_{f}(S,E)\right) $. Let us remark that for all $n$, $S^n$ is a strategy,
870 %% thus, we consider a sequence of strategies (\emph{i.e.}, a sequence of
871 %% sequences).\newline
872 %% As $d((S^n,E^n);(S,E))$ converges to 0, each distance $d_{e}(E^n,E)$ and $d_{s}(S^n,S)$ converges
873 %% to 0. But $d_{e}(E^n,E)$ is an integer, so $\exists n_{0}\in \mathds{N},$ $%
874 %% d_{e}(E^n,E)=0$ for any $n\geqslant n_{0}$.\newline
875 %% In other words, there exists a threshold $n_{0}\in \mathds{N}$ after which no
876 %% cell will change its state:
877 %% $\exists n_{0}\in \mathds{N},n\geqslant n_{0}\Rightarrow E^n = E.$
878
879 %% In addition, $d_{s}(S^n,S)\longrightarrow 0,$ so $\exists n_{1}\in %
880 %% \mathds{N},d_{s}(S^n,S)<10^{-1}$ for all indexes greater than or equal to $%
881 %% n_{1}$. This means that for $n\geqslant n_{1}$, all the $S^n$ have the same
882 %% first term, which is $S^0$: $\forall n\geqslant n_{1},S_0^n=S_0.$
883
884 %% Thus, after the $max(n_{0},n_{1})^{th}$ term, states of $E^n$ and $E$ are
885 %% identical and strategies $S^n$ and $S$ start with the same first term.\newline
886 %% Consequently, states of $G_{f}(S^n,E^n)$ and $G_{f}(S,E)$ are equal,
887 %% so, after the $max(n_0, n_1)^{th}$ term, the distance $d$ between these two points is strictly less than 1.\newline
888 %% \noindent We now prove that the distance between $\left(
889 %% G_{f}(S^n,E^n)\right) $ and $\left( G_{f}(S,E)\right) $ is convergent to
890 %% 0. Let $\varepsilon >0$. \medskip
891 %% \begin{itemize}
892 %% \item If $\varepsilon \geqslant 1$, we see that the distance
893 %% between $\left( G_{f}(S^n,E^n)\right) $ and $\left( G_{f}(S,E)\right) $ is
894 %% strictly less than 1 after the $max(n_{0},n_{1})^{th}$ term (same state).
895 %% \medskip
896 %% \item If $\varepsilon <1$, then $\exists k\in \mathds{N},10^{-k}\geqslant
897 %% \varepsilon > 10^{-(k+1)}$. But $d_{s}(S^n,S)$ converges to 0, so
898 %% \begin{equation*}
899 %% \exists n_{2}\in \mathds{N},\forall n\geqslant
900 %% n_{2},d_{s}(S^n,S)<10^{-(k+2)},
901 %% \end{equation*}%
902 %% thus after $n_{2}$, the $k+2$ first terms of $S^n$ and $S$ are equal.
903 %% \end{itemize}
904 %% \noindent As a consequence, the $k+1$ first entries of the strategies of $%
905 %% G_{f}(S^n,E^n)$ and $G_{f}(S,E)$ are the same ($G_{f}$ is a shift of strategies) and due to the definition of $d_{s}$, the floating part of
906 %% the distance between $(S^n,E^n)$ and $(S,E)$ is strictly less than $%
907 %% 10^{-(k+1)}\leqslant \varepsilon $.
908
909 %% In conclusion,
910 %% %%RAPH : ici j'ai rajouté une ligne
911 %% %%TOF : ici j'ai rajouté un commentaire
912 %% %%TOF : ici aussi
913 %% $
914 %% \forall \varepsilon >0,$ $\exists N_{0}=max(n_{0},n_{1},n_{2})\in \mathds{N}
915 %% ,$ $\forall n\geqslant N_{0},$
916 %% $ d\left( G_{f}(S^n,E^n);G_{f}(S,E)\right)
917 %% \leqslant \varepsilon .
918 %% $
919 %% $G_{f}$ is consequently continuous.
920 %% \end{proof}
921
922
923 %% It is now possible to study the topological behavior of the general chaotic
924 %% iterations. We will prove that,
925
926 %% \begin{theorem}
927 %% \label{t:chaos des general}
928 %%  The general chaotic iterations defined on Equation~\ref{general CIs} satisfy
929 %% the Devaney's property of chaos.
930 %% \end{theorem}
931
932 %% Let us firstly prove the following lemma.
933
934 %% \begin{lemma}[Strong transitivity]
935 %% \label{strongTrans}
936 %%  For all couples $X,Y \in \mathcal{X}$ and any neighborhood $V$ of $X$, we can 
937 %% find $n \in \mathds{N}^*$ and $X' \in V$ such that $G^n(X')=Y$.
938 %% \end{lemma}
939
940 %% \begin{proof}
941 %%  Let $X=(S,E)$, $\varepsilon>0$, and $k_0 = \lfloor log_{10}(\varepsilon)+1 \rfloor$. 
942 %% Any point $X'=(S',E')$ such that $E'=E$ and $\forall k \leqslant k_0, S'^k=S^k$, 
943 %% are in the open ball $\mathcal{B}\left(X,\varepsilon\right)$. Let us define 
944 %% $\check{X} = \left(\check{S},\check{E}\right)$, where $\check{X}= G^{k_0}(X)$.
945 %% We denote by $s\subset \llbracket 1; \mathsf{N} \rrbracket$ the set of coordinates
946 %% that are different between $\check{E}$ and the state of $Y$. Thus each point $X'$ of
947 %% the form $(S',E')$ where $E'=E$ and $S'$ starts with 
948 %% $(S^0, S^1, \hdots, S^{k_0},s,\hdots)$, verifies the following properties:
949 %% \begin{itemize}
950 %%  \item $X'$ is in $\mathcal{B}\left(X,\varepsilon\right)$,
951 %%  \item the state of $G_f^{k_0+1}(X')$ is the state of $Y$.
952 %% \end{itemize}
953 %% Finally the point $\left(\left(S^0, S^1, \hdots, S^{k_0},s,s^0, s^1, \hdots\right); E\right)$, 
954 %% where $(s^0,s^1, \hdots)$ is the strategy of $Y$, satisfies the properties
955 %% claimed in the lemma.
956 %% \end{proof}
957
958 %% We can now prove the Theorem~\ref{t:chaos des general}.
959
960 %% \begin{proof}[Theorem~\ref{t:chaos des general}]
961 %% Firstly, strong transitivity implies transitivity.
962
963 %% Let $(S,E) \in\mathcal{X}$ and $\varepsilon >0$. To
964 %% prove that $G_f$ is regular, it is sufficient to prove that
965 %% there exists a strategy $\tilde S$ such that the distance between
966 %% $(\tilde S,E)$ and $(S,E)$ is less than $\varepsilon$, and such that
967 %% $(\tilde S,E)$ is a periodic point.
968
969 %% Let $t_1=\lfloor-\log_{10}(\varepsilon)\rfloor$, and let $E'$ be the
970 %% configuration that we obtain from $(S,E)$ after $t_1$ iterations of
971 %% $G_f$. As $G_f$ is strongly transitive, there exists a strategy $S'$ 
972 %% and $t_2\in\mathds{N}$ such
973 %% that $E$ is reached from $(S',E')$ after $t_2$ iterations of $G_f$.
974
975 %% Consider the strategy $\tilde S$ that alternates the first $t_1$ terms
976 %% of $S$ and the first $t_2$ terms of $S'$: 
977 %% %%RAPH : j'ai coupé la ligne en 2
978 %% $$\tilde
979 %% S=(S_0,\dots,S_{t_1-1},S'_0,\dots,S'_{t_2-1},S_0,$$$$\dots,S_{t_1-1},S'_0,\dots,S'_{t_2-1},S_0,\dots).$$ It
980 %% is clear that $(\tilde S,E)$ is obtained from $(\tilde S,E)$ after
981 %% $t_1+t_2$ iterations of $G_f$. So $(\tilde S,E)$ is a periodic
982 %% point. Since $\tilde S_t=S_t$ for $t<t_1$, by the choice of $t_1$, we
983 %% have $d((S,E),(\tilde S,E))<\epsilon$.
984 %% \end{proof}
985
986
987
988
989 %%RAF : mis en supplementary
990
991
992 %\section{Statistical Improvements Using Chaotic Iterations}
993 %\label{The generation of pseudorandom sequence}
994 %The content is this section is given in Section~\ref{A-The generation of pseudorandom sequence} of the annex document.
995 The reasons to desire chaos to achieve randomness are given in Annex~\ref{A-The generation of pseudorandom sequence}.
996
997 %% \label{The generation of pseudorandom sequence}
998
999
1000 %% Let us now explain why we have reasonable ground to believe that chaos 
1001 %% can improve statistical properties.
1002 %% We will show in this section that chaotic properties as defined in the
1003 %% mathematical theory of chaos are related to some statistical tests that can be found
1004 %% in the NIST battery. Furthermore, we will check that, when mixing defective PRNGs with
1005 %% chaotic iterations, the new generator presents better statistical properties
1006 %% (this section summarizes and extends the work of~\cite{bfg12a:ip}).
1007
1008
1009
1010 %% \subsection{Qualitative relations between topological properties and statistical tests}
1011
1012
1013 %% There are various relations between topological properties that describe an unpredictable behavior for a discrete 
1014 %% dynamical system on the one
1015 %% hand, and statistical tests to check the randomness of a numerical sequence
1016 %% on the other hand. These two mathematical disciplines follow a similar 
1017 %% objective in case of a recurrent sequence (to characterize an intrinsically complicated behavior for a
1018 %% recurrent sequence), with two different but complementary approaches.
1019 %% It is true that the following illustrative links give only qualitative arguments, 
1020 %% and proofs should be provided later to make such arguments irrefutable. However 
1021 %% they give a first understanding of the reason why we think that chaotic properties should tend
1022 %% to improve the statistical quality of PRNGs.
1023 %% %
1024 %% Let us now list some of these relations between topological properties defined in the mathematical
1025 %% theory of chaos and tests embedded into the NIST battery. %Such relations need to be further 
1026 %% %investigated, but they presently give a first illustration of a trend to search similar properties in the 
1027 %% %two following fields: mathematical chaos and statistics.
1028
1029
1030 %% \begin{itemize}
1031 %%     \item \textbf{Regularity}. As stated in Section~\ref{subsec:Devaney}, a chaotic dynamical system must 
1032 %% have an element of regularity. Depending on the chosen definition of chaos, this element can be the existence of
1033 %% a dense orbit, the density of periodic points, etc. The key idea is that a dynamical system with no periodicity
1034 %% is not as chaotic as a system having periodic orbits: in the first situation, we can predict something and gain a
1035 %% knowledge about the behavior of the system, that is, it never enters into a loop. A similar importance for periodicity is emphasized in
1036 %% the two following NIST tests~\cite{Nist10}:
1037 %%     \begin{itemize}
1038 %%         \item \textbf{Non-overlapping Template Matching Test}. Detect generators that produce too many occurrences of a given non-periodic (aperiodic) pattern.
1039 %%         \item \textbf{Discrete Fourier Transform (Spectral) Test}. Detect periodic features (i.e., repetitive patterns that are close one to another) in the tested sequence that would indicate a deviation from the assumption of randomness.
1040 %%     \end{itemize}
1041
1042 %% \item \textbf{Transitivity}. This topological property previously introduced  states that the dynamical system is intrinsically complicated: it cannot be simplified into 
1043 %% two subsystems that do not interact, as we can find in any neighborhood of any point another point whose orbit visits the whole phase space. 
1044 %% This focus on the places visited by the orbits of the dynamical system takes various nonequivalent formulations in the mathematical theory
1045 %% of chaos, namely: transitivity, strong transitivity, total transitivity, topological mixing, and so on~\cite{bg10:ij}. A similar attention 
1046 %% is brought on the states visited during a random walk in the two tests below~\cite{Nist10}:
1047 %%     \begin{itemize}
1048 %%         \item \textbf{Random Excursions Variant Test}. Detect deviations from the expected number of visits to various states in the random walk.
1049 %%         \item \textbf{Random Excursions Test}. Determine if the number of visits to a particular state within a cycle deviates from what one would expect for a random sequence.
1050 %%     \end{itemize}
1051
1052 %% \item \textbf{Chaos according to Li and Yorke}. Two points of the phase space $(x,y)$ define a couple of Li-Yorke when $\limsup_{n \rightarrow +\infty} d(f^{(n)}(x), f^{(n)}(y))>0$ et $\liminf_{n \rightarrow +\infty} d(f^{(n)}(x), f^{(n)}(y))=0$, meaning that their orbits always oscillate as the iterations pass. When a system is compact and contains an uncountable set of such points, it is claimed as chaotic according
1053 %% to Li-Yorke~\cite{Li75,Ruette2001}. A similar property is regarded in the following NIST test~\cite{Nist10}.
1054 %%     \begin{itemize}
1055 %%         \item \textbf{Runs Test}. To determine whether the number of runs of ones and zeros of various lengths is as expected for a random sequence. In particular, this test determines whether the oscillation between such zeros and ones is too fast or too slow.
1056 %%     \end{itemize}
1057 %%     \item \textbf{Topological entropy}. The desire to formulate an equivalency of the thermodynamics entropy
1058 %% has emerged both in the topological and statistical fields. Once again, a similar objective has led to two different
1059 %% rewritting of an entropy based disorder: the famous Shannon definition of entropy is approximated in the statistical approach, 
1060 %% whereas topological entropy is defined as follows:
1061 %% $x,y \in \mathcal{X}$ are $\varepsilon-$\emph{separated in time $n$} if there exists $k \leqslant n$ such that $d\left(f^{(k)}(x),f^{(k)}(y)\right)>\varepsilon$. Then $(n,\varepsilon)-$separated sets are sets of points that are all $\varepsilon-$separated in time $n$, which
1062 %% leads to the definition of $s_n(\varepsilon,Y)$, being the maximal cardinality of all $(n,\varepsilon)-$separated sets. Using these notations, 
1063 %% the topological entropy is defined as follows: $$h_{top}(\mathcal{X},f)  = \displaystyle{\lim_{\varepsilon \rightarrow 0} \Big[ \limsup_{n \rightarrow +\infty} \dfrac{1}{n} \log s_n(\varepsilon,\mathcal{X})\Big]}.$$
1064 %% This value measures the average exponential growth of the number of distinguishable orbit segments. 
1065 %% In this sense, it measures the complexity of the topological dynamical system, whereas 
1066 %% the Shannon approach comes to mind when defining the following test~\cite{Nist10}:
1067 %%     \begin{itemize}
1068 %% \item \textbf{Approximate Entropy Test}. Compare the frequency of the overlapping blocks of two consecutive/adjacent lengths ($m$ and $m+1$) against the expected result for a random sequence.
1069 %%     \end{itemize}
1070
1071 %%     \item \textbf{Non-linearity, complexity}. Finally, let us remark that non-linearity and complexity are 
1072 %% not only sought in general to obtain chaos, but they are also required for randomness, as illustrated by the two tests below~\cite{Nist10}.
1073 %%     \begin{itemize}
1074 %% \item \textbf{Binary Matrix Rank Test}. Check for linear dependence among fixed length substrings of the original sequence.
1075 %% \item \textbf{Linear Complexity Test}. Determine whether or not the sequence is complex enough to be considered random.
1076 %%       \end{itemize}
1077 %% \end{itemize}
1078
1079
1080 %% We have proven in our previous works~\cite{guyeux12:bc} that chaotic iterations satisfying Theorem~\ref{Th:Caractérisation   des   IC   chaotiques} are, among other
1081 %% things, strongly transitive, topologically mixing, chaotic as defined by Li and Yorke,
1082 %% and that they have a topological entropy and an exponent of Lyapunov both equal to $ln(\mathsf{N})$,
1083 %% where $\mathsf{N}$ is the size of the iterated vector.
1084 %% These topological properties make that we are ground to believe that a generator based on chaotic
1085 %% iterations will probably be able to pass all the existing statistical batteries for pseudorandomness like
1086 %% the NIST one. The following subsections, in which we prove that defective generators have their
1087 %% statistical properties improved by chaotic iterations, show that such an assumption is true.
1088
1089 %% \subsection{Details of some Existing Generators}
1090
1091 %% The list of defective PRNGs we will use 
1092 %% as inputs for the statistical tests to come is introduced here.
1093
1094 %% Firstly, the simple linear congruency generators (LCGs) will be used. 
1095 %% They are defined by the following recurrence:
1096 %% \begin{equation}
1097 %% x^n = (ax^{n-1} + c)~mod~m,
1098 %% \label{LCG}
1099 %% \end{equation}
1100 %% where $a$, $c$, and $x^0$ must be, among other things, non-negative and inferior to 
1101 %% $m$~\cite{LEcuyerS07}. In what follows, 2LCGs and 3LCGs refer to two (resp. three) 
1102 %% combinations of such LCGs. For further details, see~\cite{bfg12a:ip,combined_lcg}.
1103
1104 %% Secondly, the multiple recursive generators (MRGs) which will be used,
1105 %% are based on a linear recurrence of order 
1106 %% $k$, modulo $m$~\cite{LEcuyerS07}:
1107 %% \begin{equation}
1108 %% x^n = (a^1x^{n-1}+~...~+a^kx^{n-k})~mod~m .
1109 %% \label{MRG}
1110 %% \end{equation}
1111 %% The combination of two MRGs (referred as 2MRGs) is also used in these experiments.
1112
1113 %% Generators based on linear recurrences with carry will be regarded too.
1114 %% This family of generators includes the add-with-carry (AWC) generator, based on the recurrence:
1115 %% \begin{equation}
1116 %% \label{AWC}
1117 %% \begin{array}{l}
1118 %% x^n = (x^{n-r} + x^{n-s} + c^{n-1})~mod~m, \\
1119 %% c^n= (x^{n-r} + x^{n-s} + c^{n-1}) / m, \end{array}\end{equation}
1120 %% the SWB generator, having the recurrence:
1121 %% \begin{equation}
1122 %% \label{SWB}
1123 %% \begin{array}{l}
1124 %% x^n = (x^{n-r} - x^{n-s} - c^{n-1})~mod~m, \\
1125 %% c^n=\left\{
1126 %% \begin{array}{l}
1127 %% 1 ~~~~~\text{if}~ (x^{i-r} - x^{i-s} - c^{i-1})<0\\
1128 %% 0 ~~~~~\text{else},\end{array} \right. \end{array}\end{equation}
1129 %% and the SWC generator, which is based on the following recurrence:
1130 %% \begin{equation}
1131 %% \label{SWC}
1132 %% \begin{array}{l}
1133 %% x^n = (a^1x^{n-1} \oplus ~...~ \oplus a^rx^{n-r} \oplus c^{n-1}) ~ mod ~ 2^w, \\
1134 %% c^n = (a^1x^{n-1} \oplus ~...~ \oplus a^rx^{n-r} \oplus c^{n-1}) ~ / ~ 2^w. \end{array}\end{equation}
1135
1136 %% Then the generalized feedback shift register (GFSR) generator has been implemented, that is:
1137 %% \begin{equation}
1138 %% x^n = x^{n-r} \oplus x^{n-k} .
1139 %% \label{GFSR}
1140 %% \end{equation}
1141
1142
1143 %% Finally, the nonlinear inversive (INV) generator~\cite{LEcuyerS07} has been studied, which is:
1144
1145 %% \begin{equation}
1146 %% \label{INV}
1147 %% \begin{array}{l}
1148 %% x^n=\left\{
1149 %% \begin{array}{ll}
1150 %% (a^1 + a^2 / z^{n-1})~mod~m & \text{if}~ z^{n-1} \neq 0 \\
1151 %% a^1 & \text{if}~  z^{n-1} = 0 .\end{array} \right. \end{array}\end{equation}
1152
1153
1154
1155 %% \begin{table}
1156 %% \renewcommand{\arraystretch}{1.3}
1157 %% \caption{TestU01 Statistical Test Failures}
1158 %% \label{TestU011}
1159 %% \centering
1160 %%   \begin{tabular}{lccccc}
1161 %%     \toprule
1162 %% Test name &Tests& Logistic           & XORshift      & ISAAC\\
1163 %% Rabbit                               &       38      &21             &14     &0       \\
1164 %% Alphabit                     &       17      &16             &9      &0       \\
1165 %% Pseudo DieHARD                       &126    &0              &2      &0      \\
1166 %% FIPS\_140\_2                         &16     &0              &0      &0      \\
1167 %% SmallCrush                   &15     &4              &5      &0       \\
1168 %% Crush                                &144    &95             &57     &0       \\
1169 %% Big Crush                    &160    &125            &55     &0       \\ \hline
1170 %% Failures             &       &261            &146    &0       \\
1171 %% \bottomrule
1172 %%   \end{tabular}
1173 %% \end{table}
1174
1175
1176
1177 %% \begin{table}
1178 %% \renewcommand{\arraystretch}{1.3}
1179 %% \caption{TestU01 Statistical Test Failures for Old CI algorithms ($\mathsf{N}=4$)}
1180 %% \label{TestU01 for Old CI}
1181 %% \centering
1182 %%   \begin{tabular}{lcccc}
1183 %%     \toprule
1184 %% \multirow{3}*{Test name} & \multicolumn{4}{c}{Old CI}\\
1185 %% &Logistic& XORshift& ISAAC&ISAAC  \\ 
1186 %% &+& +& + & + \\ 
1187 %% &Logistic& XORshift& XORshift&ISAAC  \\ \cmidrule(r){2-5}
1188 %% Rabbit                                       &7      &2      &0      &0       \\
1189 %% Alphabit                             & 3     &0      &0      &0       \\
1190 %% DieHARD                      &0      &0      &0      &0      \\
1191 %% FIPS\_140\_2                         &0      &0      &0      &0      \\
1192 %% SmallCrush                           &2      &0      &0      &0       \\
1193 %% Crush                                        &47     &4      &0      &0       \\
1194 %% Big Crush                            &79     &3      &0      &0       \\ \hline
1195 %% Failures                             &138    &9      &0      &0       \\
1196 %% \bottomrule
1197 %%   \end{tabular}
1198 %% \end{table}
1199
1200
1201
1202
1203
1204 %% \subsection{Statistical tests}
1205 %% \label{Security analysis}
1206
1207 %% Three batteries of tests are reputed and regularly used
1208 %% to evaluate the statistical properties of newly designed pseudorandom
1209 %% number generators. These batteries are named DieHard~\cite{Marsaglia1996},
1210 %% the NIST suite~\cite{ANDREW2008}, and the most stringent one called
1211 %% TestU01~\cite{LEcuyerS07}, which encompasses the two other batteries.
1212
1213
1214
1215 %% \label{Results and discussion}
1216 %% \begin{table*}
1217 %% \renewcommand{\arraystretch}{1.3}
1218 %% \caption{NIST and DieHARD tests suite passing rates for PRNGs without CI}
1219 %% \label{NIST and DieHARD tests suite passing rate the for PRNGs without CI}
1220 %% \centering
1221 %%   \begin{tabular}{|l||c|c|c|c|c|c|c|c|c|c|}
1222 %%     \hline\hline
1223 %% Types of PRNGs & \multicolumn{2}{c|}{Linear PRNGs} & \multicolumn{4}{c|}{Lagged PRNGs} & \multicolumn{1}{c|}{ICG PRNGs} & \multicolumn{3}{c|}{Mixed PRNGs}\\ \hline
1224 %% \backslashbox{\textbf{$Tests$}} {\textbf{$PRNG$}} & LCG& MRG& AWC & SWB  & SWC & GFSR & INV & LCG2& LCG3& MRG2 \\ \hline
1225 %% NIST & 11/15 & 14/15 &\textbf{15/15} & \textbf{15/15}   & 14/15 & 14/15  & 14/15 & 14/15& 14/15& 14/15 \\ \hline
1226 %% DieHARD & 16/18 & 16/18 & 15/18 & 16/18 & \textbf{18/18} & 16/18 & 16/18 & 16/18& 16/18& 16/18\\ \hline
1227 %% \end{tabular}
1228 %% \end{table*}
1229
1230 %% Table~\ref{NIST and DieHARD tests suite passing rate the for PRNGs without CI} shows the 
1231 %% results on the two first batteries recalled above, indicating that all the PRNGs presented
1232 %% in the previous section
1233 %% cannot pass all these tests. In other words, the statistical quality of these PRNGs cannot 
1234 %% fulfill the up-to-date standards presented previously. We have shown in~\cite{bfg12a:ip} that the use of chaotic
1235 %% iterations can solve this issue.
1236 %% %More precisely, to
1237 %% %illustrate the effects of chaotic iterations on these defective PRNGs, experiments have been divided in three parts~\cite{bfg12a:ip}:
1238 %% %\begin{enumerate}
1239 %% %  \item \textbf{Single CIPRNG}: The PRNGs involved in CI computing are of the same category.
1240 %% %  \item \textbf{Mixed CIPRNG}: Two different types of PRNGs are mixed during the chaotic iterations process.
1241 %% %  \item \textbf{Multiple CIPRNG}: The generator is obtained by repeating the composition of the iteration function as follows: $x^0\in \mathds{B}^{\mathsf{N}}$, and $\forall n\in \mathds{N}^{\ast },\forall i\in \llbracket1;\mathsf{N}\rrbracket, x_i^n=$
1242 %% %\begin{equation}
1243 %% %\begin{array}{l}
1244 %% %\left\{
1245 %% %\begin{array}{l}
1246 %% %x_i^{n-1}~~~~~\text{if}~S^n\neq i \\
1247 %% %\forall j\in \llbracket1;\mathsf{m}\rrbracket,f^m(x^{n-1})_{S^{nm+j}}~\text{if}~S^{nm+j}=i.\end{array} \right. \end{array}
1248 %% %\end{equation}
1249 %% %$m$ is called the \emph{functional power}.
1250 %% %\end{enumerate}
1251 %% %
1252 %% The obtained results are reproduced in Table
1253 %% \ref{NIST and DieHARD tests suite passing rate the for single CIPRNGs}.
1254 %% The scores written in boldface indicate that all the tests have been passed successfully, whereas an 
1255 %% asterisk ``*'' means that the considered passing rate has been improved.
1256 %% The improvements are obvious for both the ``Old CI'' and the ``New CI'' generators.
1257 %% Concerning the ``Xor CI PRNG'', the score is less spectacular. Because of a large speed improvement, the statistics
1258 %%  are not as good as for the two other versions of these CIPRNGs.
1259 %% However 8 tests have been improved (with no deflation for the other results).
1260
1261
1262 %% \begin{table*}
1263 %% \renewcommand{\arraystretch}{1.3}
1264 %% \caption{NIST and DieHARD tests suite passing rates for PRNGs with CI}
1265 %% \label{NIST and DieHARD tests suite passing rate the for single CIPRNGs}
1266 %% \centering
1267 %%   \begin{tabular}{|l||c|c|c|c|c|c|c|c|c|c|c|c|}
1268 %%     \hline
1269 %% Types of PRNGs & \multicolumn{2}{c|}{Linear PRNGs} & \multicolumn{4}{c|}{Lagged PRNGs} & \multicolumn{1}{c|}{ICG PRNGs} & \multicolumn{3}{c|}{Mixed PRNGs}\\ \hline
1270 %% \backslashbox{\textbf{$Tests$}} {\textbf{$Single~CIPRNG$}} & LCG  & MRG & AWC & SWB & SWC & GFSR & INV& LCG2 & LCG3& MRG2 \\ \hline\hline
1271 %% Old CIPRNG\\ \hline \hline
1272 %% NIST & \textbf{15/15} *  & \textbf{15/15} * & \textbf{15/15}   & \textbf{15/15}   & \textbf{15/15} * & \textbf{15/15} * & \textbf{15/15} *& \textbf{15/15} * & \textbf{15/15} * & \textbf{15/15} \\ \hline
1273 %% DieHARD & \textbf{18/18} *  & \textbf{18/18} * & \textbf{18/18} *  & \textbf{18/18} *  & \textbf{18/18}  & \textbf{18/18} * & \textbf{18/18} *& \textbf{18/18} * & \textbf{18/18} *& \textbf{18/18} * \\ \hline
1274 %% New CIPRNG\\ \hline \hline
1275 %% NIST & \textbf{15/15} *  & \textbf{15/15} * & \textbf{15/15}   & \textbf{15/15}  & \textbf{15/15} * & \textbf{15/15} * & \textbf{15/15} *& \textbf{15/15} * & \textbf{15/15} * & \textbf{15/15} \\ \hline
1276 %% DieHARD & \textbf{18/18} *  & \textbf{18/18} * & \textbf{18/18} * & \textbf{18/18} * & \textbf{18/18}  & \textbf{18/18} * & \textbf{18/18} * & \textbf{18/18} * & \textbf{18/18} *& \textbf{18/18} *\\ \hline
1277 %% Xor CIPRNG\\ \hline\hline
1278 %% NIST & 14/15*& \textbf{15/15} *   & \textbf{15/15}   & \textbf{15/15}   & 14/15 & \textbf{15/15} * & 14/15& \textbf{15/15} * & \textbf{15/15} *& \textbf{15/15}  \\ \hline
1279 %% DieHARD & 16/18 & 16/18 & 17/18* & \textbf{18/18} * & \textbf{18/18}  & \textbf{18/18} * & 16/18 & 16/18 & 16/18& 16/18\\ \hline
1280 %% \end{tabular}
1281 %% \end{table*}
1282
1283
1284 %% We have then investigated in~\cite{bfg12a:ip} if it were possible to improve
1285 %% the statistical behavior of the Xor CI version by combining more than one 
1286 %% $\oplus$ operation. Results are summarized in Table~\ref{threshold}, illustrating
1287 %% the progressive increasing effects of chaotic iterations, when giving time to chaos to get settled in.
1288 %% Thus rapid and perfect PRNGs, regarding the NIST and DieHARD batteries, can be obtained 
1289 %% using chaotic iterations on defective generators.
1290
1291 %% \begin{table*}
1292 %% \renewcommand{\arraystretch}{1.3}
1293 %% \caption{Number of $\oplus$ operations to pass the whole NIST and DieHARD batteries}
1294 %% \label{threshold}
1295 %% \centering
1296 %%   \begin{tabular}{|l||c|c|c|c|c|c|c|c|}
1297 %%     \hline
1298 %% Inputted $PRNG$ & LCG & MRG & SWC & GFSR & INV& LCG2 & LCG3  & MRG2 \\ \hline\hline
1299 %% Threshold  value $m$& 19 & 7  & 2& 1 & 11& 9& 3& 4\\ \hline\hline
1300 %% \end{tabular}
1301 %% \end{table*}
1302
1303 %% Finally, the TestU01 battery has been launched on three well-known generators 
1304 %% (a logistic map, a simple XORshift, and the cryptographically secure ISAAC, 
1305 %% see Table~\ref{TestU011}). These results can be compared with 
1306 %% Table~\ref{TestU01 for Old CI}, which gives the scores obtained by the
1307 %% Old CI PRNG that has received these generators.
1308 %% The obvious improvement speaks for itself, and together with the other
1309 %% results recalled in this section, it reinforces the opinion that a strong
1310 %% correlation between topological properties and statistical behavior exists.
1311
1312
1313 %% The next subsection will now give a concrete original implementation of the Xor CI PRNG, the
1314 %% fastest generator in the chaotic iteration based family. In the remainder,
1315 %% this generator will be simply referred to as CIPRNG, or ``the proposed PRNG'', if this statement does not
1316 %% raise ambiguity.
1317
1318
1319 \section{First Efficient Implementation of a PRNG based on Chaotic Iterations}
1320 \label{sec:efficient PRNG}
1321 %
1322 %Based on the proof presented in the previous section, it is now possible to 
1323 %improve the speed of the generator formerly presented in~\cite{bgw09:ip,guyeux10}. 
1324 %The first idea is to consider
1325 %that the provided strategy is a pseudorandom Boolean vector obtained by a
1326 %given PRNG.
1327 %An iteration of the system is simply the bitwise exclusive or between
1328 %the last computed state and the current strategy.
1329 %Topological properties of disorder exhibited by chaotic 
1330 %iterations can be inherited by the inputted generator, we hope by doing so to 
1331 %obtain some statistical improvements while preserving speed.
1332 %
1333 %%RAPH : j'ai viré tout ca
1334 %% Let us give an example using 16-bits numbers, to clearly understand how the bitwise xor operations
1335 %% are
1336 %% done.  
1337 %% Suppose  that $x$ and the  strategy $S^i$ are given as
1338 %% binary vectors.
1339 %% Table~\ref{TableExemple} shows the result of $x \oplus S^i$.
1340
1341 %% \begin{table}
1342 %% \begin{scriptsize}
1343 %% $$
1344 %% \begin{array}{|cc|cccccccccccccccc|}
1345 %% \hline
1346 %% x      &=&1&0&1&1&1&0&1&0&1&0&0&1&0&0&1&0\\
1347 %% \hline
1348 %% S^i      &=&0&1&1&0&0&1&1&0&1&1&1&0&0&1&1&1\\
1349 %% \hline
1350 %% x \oplus S^i&=&1&1&0&1&1&1&0&0&0&1&1&1&0&1&0&1\\
1351 %% \hline
1352
1353 %% \hline
1354 %%  \end{array}
1355 %% $$
1356 %% \end{scriptsize}
1357 %% \caption{Example of an arbitrary round of the proposed generator}
1358 %% \label{TableExemple}
1359 %% \end{table}
1360
1361
1362
1363
1364 \lstset{language=C,caption={C code of the sequential PRNG based on chaotic iterations},label={algo:seqCIPRNG}}
1365 \begin{small}
1366 \begin{lstlisting}
1367
1368 unsigned int CIPRNG() {
1369   static unsigned int x = 123123123;
1370   unsigned long t1 = xorshift();
1371   unsigned long t2 = xor128();
1372   unsigned long t3 = xorwow();
1373   x = x^(unsigned int)t1;
1374   x = x^(unsigned int)(t2>>32);
1375   x = x^(unsigned int)(t3>>32);
1376   x = x^(unsigned int)t2;
1377   x = x^(unsigned int)(t1>>32);
1378   x = x^(unsigned int)t3;
1379   return x;
1380 }
1381 \end{lstlisting}
1382 \end{small}
1383
1384
1385
1386 In Listing~\ref{algo:seqCIPRNG} a sequential  version of the proposed PRNG based
1387 on  chaotic  iterations  is  presented.   The xor  operator  is  represented  by
1388 \textasciicircum.  This function uses  three classical 64-bits PRNGs, namely the
1389 \texttt{xorshift},         the          \texttt{xor128},         and         the
1390 \texttt{xorwow}~\cite{Marsaglia2003}.  In the following, we call them ``xor-like
1391 PRNGs''.   As each  xor-like PRNG  uses 64-bits  whereas our  proposed generator
1392 works with 32-bits, we use the command \texttt{(unsigned int)}, that selects the
1393 32 least  significant bits  of a given  integer, and the  code \texttt{(unsigned
1394   int)(t$>>$32)} in order to obtain the 32 most significant bits of \texttt{t}.
1395
1396 Thus producing a pseudorandom number needs 6 xor operations with 6 32-bits numbers
1397 that  are provided by  3 64-bits  PRNGs.  This  version successfully  passes the
1398 stringent BigCrush battery of tests~\cite{LEcuyerS07}. 
1399 At this point, we thus
1400 have defined an efficient and statistically unbiased generator. Its speed is
1401 directly related to the use of linear operations, but for the same reason,
1402 this fast generator cannot be proven as secure.
1403
1404
1405
1406 \section{Efficient PRNGs based on Chaotic Iterations on GPU}
1407 \label{sec:efficient PRNG gpu}
1408
1409 In order to  take benefits from the computing power  of GPU, a program
1410 needs  to have  independent blocks  of  threads that  can be  computed
1411 simultaneously. In general,  the larger the number of  threads is, the
1412 more local  memory is  used, and the  less branching  instructions are
1413 used  (if,  while,  ...),  the  better the  performances  on  GPU  is.
1414 Obviously, having these requirements in  mind, it is possible to build
1415 a   program    similar   to    the   one   presented    in  Listing 
1416 \ref{algo:seqCIPRNG}, which computes  pseudorandom numbers on GPU.  To
1417 do  so,  we  must   firstly  recall  that  in  the  CUDA~\cite{Nvid10}
1418 environment,    threads    have     a    local    identifier    called
1419 \texttt{ThreadIdx},  which   is  relative  to   the  block  containing
1420 them. Furthermore, in  CUDA, parts of  the code that are executed by the  GPU, are
1421 called {\it kernels}.
1422
1423
1424 \subsection{Naive Version for GPU}
1425
1426  
1427 It is possible to deduce from the CPU version a quite similar version adapted to GPU.
1428 The simple principle consists in making each thread of the GPU computing the CPU version of our PRNG.  
1429 Of course,  the  three xor-like
1430 PRNGs  used in these computations must have different  parameters. 
1431 In a given thread, these parameters are
1432 randomly picked from another PRNGs. 
1433 The  initialization stage is performed by  the CPU.
1434 To do it, the  ISAAC  PRNG~\cite{Jenkins96} is used to  set  all  the
1435 parameters embedded into each thread.   
1436
1437 The implementation of  the three
1438 xor-like  PRNGs  is  straightforward  when  their  parameters  have  been
1439 allocated in  the GPU memory.  Each xor-like  works with  an internal
1440 number  $x$  that saves  the  last  generated  pseudorandom number. Additionally,  the
1441 implementation of the  xor128, the xorshift, and the  xorwow respectively require
1442 4, 5, and 6 unsigned long as internal variables.
1443
1444
1445 \begin{algorithm}
1446 \begin{small}
1447 \KwIn{InternalVarXorLikeArray: array with internal variables of the 3 xor-like
1448 PRNGs in global memory\;
1449 NumThreads: number of threads\;}
1450 \KwOut{NewNb: array containing random numbers in global memory}
1451 \If{threadIdx is concerned by the computation} {
1452   retrieve data from InternalVarXorLikeArray[threadIdx] in local variables\;
1453   \For{i=1 to n} {
1454     compute a new PRNG as in Listing\ref{algo:seqCIPRNG}\;
1455     store the new PRNG in NewNb[NumThreads*threadIdx+i]\;
1456   }
1457   store internal variables in InternalVarXorLikeArray[threadIdx]\;
1458 }
1459 \end{small}
1460 \caption{Main kernel of the GPU ``naive'' version of the PRNG based on chaotic iterations}
1461 \label{algo:gpu_kernel}
1462 \end{algorithm}
1463
1464
1465
1466 Algorithm~\ref{algo:gpu_kernel}  presents a naive  implementation of the proposed  PRNG on
1467 GPU.  Due to the available  memory in the  GPU and the number  of threads
1468 used simultaneously,  the number  of random numbers  that a thread  can generate
1469 inside   a    kernel   is   limited  (\emph{i.e.},    the    variable   \texttt{n}   in
1470 algorithm~\ref{algo:gpu_kernel}). For instance, if  $100,000$ threads are used and
1471 if $n=100$\footnote{in fact, we need to add the initial seed (a 32-bits number)},
1472 then   the  memory   required   to  store all of the  internals   variables  of both the  xor-like
1473 PRNGs\footnote{we multiply this number by $2$ in order to count 32-bits numbers}
1474 and  the pseudorandom  numbers generated by  our  PRNG,  is  equal to  $100,000\times  ((4+5+6)\times
1475 2+(1+100))=1,310,000$ 32-bits numbers, that is, approximately $52$Mb.
1476
1477 This generator is able to pass the whole BigCrush battery of tests, for all
1478 the versions that have been tested depending on their number of threads 
1479 (called \texttt{NumThreads} in our algorithm, tested up to $5$ million).
1480
1481 \begin{remark}
1482 The proposed algorithm has  the  advantage of  manipulating  independent
1483 PRNGs, so this version is easily adaptable on a cluster of computers too. The only thing
1484 to ensure is to use a single ISAAC PRNG. To achieve this requirement, a simple solution consists in
1485 using a master node for the initialization. This master node computes the initial parameters
1486 for all the different nodes involved in the computation.
1487 \end{remark}
1488
1489 \subsection{Improved Version for GPU}
1490
1491 As GPU cards using CUDA have shared memory between threads of the same block, it
1492 is possible  to use this  feature in order  to simplify the  previous algorithm,
1493 i.e., to use less  than 3 xor-like PRNGs. The solution  consists in computing only
1494 one xor-like PRNG by thread, saving  it into the shared memory, and then to use the results
1495 of some  other threads in the  same block of  threads. In order to  define which
1496 thread uses the result of which other  one, we can use a combination array that
1497 contains  the indexes  of  all threads  and  for which  a combination has  been
1498 performed. 
1499
1500 In  Algorithm~\ref{algo:gpu_kernel2},  two  combination  arrays are  used.   The
1501 variable     \texttt{offset}    is     computed    using     the     value    of
1502 \texttt{combination\_size}.   Then we  can compute  \texttt{o1}  and \texttt{o2}
1503 representing the  indexes of  the other  threads whose results  are used  by the
1504 current one.   In this algorithm, we  consider that a 32-bits  xor-like PRNG has
1505 been chosen. In practice, we  use the xor128 proposed in~\cite{Marsaglia2003} in
1506 which  unsigned longs  (64 bits)  have been  replaced by  unsigned  integers (32
1507 bits).
1508
1509 This version  can also pass the whole {\it BigCrush} battery of tests.
1510
1511 \begin{algorithm}
1512 \begin{small}
1513 \KwIn{InternalVarXorLikeArray: array with internal variables of 1 xor-like PRNGs
1514 in global memory\;
1515 NumThreads: Number of threads\;
1516 array\_comb1, array\_comb2: Arrays containing combinations of size combination\_size\;}
1517
1518 \KwOut{NewNb: array containing random numbers in global memory}
1519 \If{threadId is concerned} {
1520   retrieve data from InternalVarXorLikeArray[threadId] in local variables including shared memory and x\;
1521   offset = threadIdx\%combination\_size\;
1522   o1 = threadIdx-offset+array\_comb1[offset]\;
1523   o2 = threadIdx-offset+array\_comb2[offset]\;
1524   \For{i=1 to n} {
1525     t=xor-like()\;
1526     t=t\textasciicircum shmem[o1]\textasciicircum shmem[o2]\;
1527     shared\_mem[threadId]=t\;
1528     x = x\textasciicircum t\;
1529
1530     store the new PRNG in NewNb[NumThreads*threadId+i]\;
1531   }
1532   store internal variables in InternalVarXorLikeArray[threadId]\;
1533 }
1534 \end{small}
1535 \caption{Main kernel for the chaotic iterations based PRNG GPU efficient
1536 version\label{IR}}
1537 \label{algo:gpu_kernel2} 
1538 \end{algorithm}
1539
1540 \subsection{Chaos Evaluation of the Improved Version}
1541
1542 A run of Algorithm~\ref{algo:gpu_kernel2} consists in an operation ($x=x\oplus t$) having 
1543 the form of Equation~\ref{equation Oplus}, which is equivalent to the iterative
1544 system of Eq.~\ref{eq:generalIC}. That is, an iteration of the general chaotic
1545 iterations is realized between the last stored value $x$ of the thread and a strategy $t$
1546 (obtained by a bitwise exclusive or between a value provided by a xor-like() call
1547 and two values previously obtained by two other threads).
1548 To be certain that we are in the framework of Theorem~\ref{t:chaos des general},
1549 we must guarantee that this dynamical system iterates on the space 
1550 $\mathcal{X} = \mathcal{P}\left(\llbracket 1, \mathsf{N} \rrbracket\right)^\mathds{N}\times\mathds{B}^\mathsf{N}$.
1551 The left term $x$ obviously belongs to $\mathds{B}^ \mathsf{N}$.
1552 To prevent from any flaws of chaotic properties, we must check that the right 
1553 term (the last $t$), corresponding to the strategies,  can possibly be equal to any
1554 integer of $\llbracket 1, \mathsf{N} \rrbracket$. 
1555
1556 Such a result is obvious, as for the xor-like(), all the
1557 integers belonging into its interval of definition can occur at each iteration, and thus the 
1558 last $t$ respects the requirement. Furthermore, it is possible to
1559 prove by an immediate mathematical induction that, as the initial $x$
1560 is uniformly distributed (it is provided by a cryptographically secure PRNG),
1561 the two other stored values shmem[o1] and shmem[o2] are uniformly distributed too,
1562 (this is the induction hypothesis), and thus the next $x$ is finally uniformly distributed.
1563
1564 Thus Algorithm~\ref{algo:gpu_kernel2} is a concrete realization of the general
1565 chaotic iterations presented previously, and for this reason, it satisfies the 
1566 Devaney's formulation of a chaotic behavior.
1567
1568 \section{Experiments}
1569 \label{sec:experiments}
1570
1571 Different experiments  have been  performed in order  to measure  the generation
1572 speed. We have used a first computer equipped with a Tesla C1060 NVidia  GPU card
1573 and an
1574 Intel  Xeon E5530 cadenced  at 2.40  GHz,  and 
1575 a second computer  equipped with a smaller  CPU and  a GeForce GTX  280. 
1576 All the
1577 cards have 240 cores.
1578
1579 In  Figure~\ref{fig:time_xorlike_gpu} we  compare the  quantity of  pseudorandom numbers
1580 generated per second with various xor-like based PRNGs. In this figure, the optimized
1581 versions use the {\it xor64} described in~\cite{Marsaglia2003}, whereas the naive versions
1582 embed  the three  xor-like  PRNGs described  in Listing~\ref{algo:seqCIPRNG}.   In
1583 order to obtain the optimal performances, the storage of pseudorandom numbers
1584 into the GPU memory has been removed. This step is time consuming and slows down the numbers
1585 generation.  Moreover this   storage  is  completely
1586 useless, in case of applications that consume the pseudorandom
1587 numbers  directly   after generation. We can see  that when the number of  threads is greater
1588 than approximately 30,000 and lower than 5 million, the number of pseudorandom numbers generated
1589 per second  is almost constant.  With the  naive version, this value ranges from 2.5 to
1590 3GSamples/s.   With  the  optimized   version,  it  is  approximately  equal to
1591 20GSamples/s. Finally  we can remark  that both GPU  cards are quite  similar, but in
1592 practice,  the Tesla C1060  has more  memory than  the GTX  280, and  this memory
1593 should be of better quality.
1594 As a  comparison,   Listing~\ref{algo:seqCIPRNG}  leads   to the  generation of  about
1595 138MSample/s when using one core of the Xeon E5530.
1596
1597 \begin{figure}[htbp]
1598 \begin{center}
1599   \includegraphics[width=\columnwidth]{curve_time_xorlike_gpu.pdf}
1600 \end{center}
1601 \caption{Quantity of pseudorandom numbers generated per second with the xorlike-based PRNG}
1602 \label{fig:time_xorlike_gpu}
1603 \end{figure}
1604
1605
1606
1607
1608
1609 In Figure~\ref{fig:time_bbs_gpu} we highlight  the performances of the optimized
1610 BBS-based PRNG on GPU.  On  the Tesla C1060 we obtain approximately 700MSample/s
1611 and  on the  GTX 280  about  670MSample/s, which  is obviously  slower than  the
1612 xorlike-based PRNG on GPU. However, we  will show in the next sections that this
1613 new PRNG  has a strong  level of  security, which is  necessarily paid by  a speed
1614 reduction.
1615
1616 \begin{figure}[htbp]
1617 \begin{center}
1618   \includegraphics[width=\columnwidth]{curve_time_bbs_gpu.pdf}
1619 \end{center}
1620 \caption{Quantity of pseudorandom numbers generated per second using the BBS-based PRNG}
1621 \label{fig:time_bbs_gpu}
1622 \end{figure}
1623
1624 All  these  experiments allow  us  to conclude  that  it  is possible  to
1625 generate a very large quantity of pseudorandom  numbers statistically perfect with the  xor-like version.
1626 To a certain extend, it is also the case with the secure BBS-based version, the speed deflation being
1627 explained by the fact that the former  version has ``only''
1628 chaotic properties and statistical perfection, whereas the latter is also cryptographically secure,
1629 as it is shown in the next sections.
1630
1631
1632
1633
1634
1635
1636
1637 \section{Security Analysis}
1638
1639
1640 This section is dedicated to the security analysis of the
1641   proposed PRNGs, both from a theoretical and from a practical point of view.
1642
1643 \subsection{Theoretical Proof of Security}
1644 \label{sec:security analysis}
1645
1646 The standard definition
1647   of {\it indistinguishability} used is the classical one as defined for
1648   instance in~\cite[chapter~3]{Goldreich}. 
1649   This property shows that predicting the future results of the PRNG
1650   cannot be done in a reasonable time compared to the generation time. It is important to emphasize that this
1651   is a relative notion between breaking time and the sizes of the
1652   keys/seeds. Of course, if small keys or seeds are chosen, the system can
1653   be broken in practice. But it also means that if the keys/seeds are large
1654   enough, the system is secured.
1655 As a complement, an example of a concrete practical evaluation of security
1656 is outlined in the next subsection.
1657
1658 In this section the concatenation of two strings $u$ and $v$ is classically
1659 denoted by $uv$.
1660 In a cryptographic context, a pseudorandom generator is a deterministic
1661 algorithm $G$ transforming strings  into strings and such that, for any
1662 seed $s$ of length $m$, $G(s)$ (the output of $G$ on the input $s$) has size
1663 $\ell_G(m)$ with $\ell_G(m)>m$.
1664 The notion of {\it secure} PRNGs can now be defined as follows. 
1665
1666 \begin{definition}
1667 A cryptographic PRNG $G$ is secure if for any probabilistic polynomial time
1668 algorithm $D$, for any positive polynomial $p$, and for all sufficiently
1669 large $m$'s,
1670 $$| \mathrm{Pr}[D(G(U_m))=1]-Pr[D(U_{\ell_G(m)})=1]|< \frac{1}{p(m)},$$
1671 where $U_r$ is the uniform distribution over $\{0,1\}^r$ and the
1672 probabilities are taken over $U_m$, $U_{\ell_G(m)}$ as well as over the
1673 internal coin tosses of $D$. 
1674 \end{definition}
1675
1676 Intuitively,  it means  that  there is  no  polynomial time  algorithm that  can
1677 distinguish a  perfect uniform random generator  from $G$ with  a non negligible
1678 probability.   An equivalent  formulation of  this well-known  security property
1679 means that  it is  possible \emph{in practice}  to predict  the next bit  of the
1680 generator, knowing all  the previously produced ones.  The  interested reader is
1681 referred to~\cite[chapter~3]{Goldreich}  for more  information. Note that  it is
1682 quite easily possible to change the function $\ell$ into any polynomial function
1683 $\ell^\prime$ satisfying $\ell^\prime(m)>m)$~\cite[Chapter 3.3]{Goldreich}.
1684
1685 The generation schema developed in (\ref{equation Oplus}) is based on a
1686 pseudorandom generator. Let $H$ be a cryptographic PRNG. We may assume,
1687 without loss of generality, that for any string $S_0$ of size $N$, the size
1688 of $H(S_0)$ is $kN$, with $k>2$. It means that $\ell_H(N)=kN$. 
1689 Let $S_1,\ldots,S_k$ be the 
1690 strings of length $N$ such that $H(S_0)=S_1 \ldots S_k$ ($H(S_0)$ is the concatenation of
1691 the $S_i$'s). The cryptographic PRNG $X$ defined in (\ref{equation Oplus})
1692 is the algorithm mapping any string of length $2N$ $x_0S_0$ into the string
1693 $(x_0\oplus S_0 \oplus S_1)(x_0\oplus S_0 \oplus S_1\oplus S_2)\ldots
1694 (x_o\bigoplus_{i=0}^{i=k}S_i)$. One in particular has $\ell_{X}(2N)=kN=\ell_H(N)$. 
1695 We claim now that if this PRNG is secure,
1696 then the new one is secure too.
1697
1698 \begin{proposition}
1699 \label{cryptopreuve}
1700 If $H$ is a secure cryptographic PRNG, then $X$ is a secure cryptographic
1701 PRNG too.
1702 \end{proposition}
1703
1704 \begin{proof}
1705 The proposition is proven by contraposition. Assume that $X$ is not
1706 secure. By Definition, there exists a polynomial time probabilistic
1707 algorithm $D$, a positive polynomial $p$, such that for all $k_0$ there exists
1708 $N\geq \frac{k_0}{2}$ satisfying 
1709 $$| \mathrm{Pr}[D(X(U_{2N}))=1]-\mathrm{Pr}[D(U_{kN}=1]|\geq \frac{1}{p(2N)}.$$
1710 We describe a new probabilistic algorithm $D^\prime$ on an input $w$ of size
1711 $kN$:
1712 \begin{enumerate}
1713 \item Decompose $w$ into $w=w_1\ldots w_{k}$, where each $w_i$ has size $N$.
1714 \item Pick a string $y$ of size $N$ uniformly at random.
1715 \item Compute $z=(y\oplus w_1)(y\oplus w_1\oplus w_2)\ldots (y
1716   \bigoplus_{i=1}^{i=k} w_i).$
1717 \item Return $D(z)$.
1718 \end{enumerate}
1719
1720
1721 Consider  for each $y\in \mathbb{B}^{kN}$ the function $\varphi_{y}$
1722 from $\mathbb{B}^{kN}$ into $\mathbb{B}^{kN}$ mapping $w=w_1\ldots w_k$
1723 (each $w_i$ has length $N$) to 
1724 $(y\oplus w_1)(y\oplus w_1\oplus w_2)\ldots (y
1725   \bigoplus_{i=1}^{i=k_1} w_i).$ By construction, one has for every $w$,
1726 \begin{equation}\label{PCH-1}
1727 D^\prime(w)=D(\varphi_y(w)),
1728 \end{equation}
1729 where $y$ is randomly generated. 
1730 Moreover, for each $y$, $\varphi_{y}$ is injective: if 
1731 $(y\oplus w_1)(y\oplus w_1\oplus w_2)\ldots (y\bigoplus_{i=1}^{i=k_1}
1732 w_i)=(y\oplus w_1^\prime)(y\oplus w_1^\prime\oplus w_2^\prime)\ldots
1733 (y\bigoplus_{i=1}^{i=k} w_i^\prime)$, then for every $1\leq j\leq k$,
1734 $y\bigoplus_{i=1}^{i=j} w_i^\prime=y\bigoplus_{i=1}^{i=j} w_i$. It follows,
1735 by a direct induction, that $w_i=w_i^\prime$. Furthermore, since $\mathbb{B}^{kN}$
1736 is finite, each $\varphi_y$ is bijective. Therefore, and using (\ref{PCH-1}),
1737 one has
1738 $\mathrm{Pr}[D^\prime(U_{kN})=1]=\mathrm{Pr}[D(\varphi_y(U_{kN}))=1]$ and,
1739 therefore, 
1740 \begin{equation}\label{PCH-2}
1741 \mathrm{Pr}[D^\prime(U_{kN})=1]=\mathrm{Pr}[D(U_{kN})=1].
1742 \end{equation}
1743
1744 Now, using (\ref{PCH-1}) again, one has  for every $x$,
1745 \begin{equation}\label{PCH-3}
1746 D^\prime(H(x))=D(\varphi_y(H(x))),
1747 \end{equation}
1748 where $y$ is randomly generated. By construction, $\varphi_y(H(x))=X(yx)$,
1749 thus
1750 \begin{equation}%\label{PCH-3}      %%RAPH : j'ai viré ce label qui existe déjà, il est 3 ligne avant
1751 D^\prime(H(x))=D(yx),
1752 \end{equation}
1753 where $y$ is randomly generated. 
1754 It follows that 
1755
1756 \begin{equation}\label{PCH-4}
1757 \mathrm{Pr}[D^\prime(H(U_{N}))=1]=\mathrm{Pr}[D(U_{2N})=1].
1758 \end{equation}
1759  From (\ref{PCH-2}) and (\ref{PCH-4}), one can deduce that
1760 there exists a polynomial time probabilistic
1761 algorithm $D^\prime$, a positive polynomial $p$, such that for all $k_0$ there exists
1762 $N\geq \frac{k_0}{2}$ satisfying 
1763 $$| \mathrm{Pr}[D(H(U_{N}))=1]-\mathrm{Pr}[D(U_{kN}=1]|\geq \frac{1}{p(2N)},$$
1764 proving that $H$ is not secure, which is a contradiction. 
1765 \end{proof}
1766
1767
1768
1769 \subsection{Practical Security Evaluation}
1770 \label{sec:Practicak evaluation}
1771 This subsection is given in Section~\ref{A-sec:Practicak evaluation} of the annex document.
1772 %%RAF mis en annexe
1773
1774
1775 %% Pseudorandom generators based on Eq.~\eqref{equation Oplus} are thus cryptographically secure when
1776 %% they are XORed with an already cryptographically
1777 %% secure PRNG. But, as stated previously,
1778 %% such a property does not mean that, whatever the
1779 %% key size, no attacker can predict the next bit
1780 %% knowing all the previously released ones.
1781 %% However, given a key size, it is possible to 
1782 %% measure in practice the minimum duration needed
1783 %% for an attacker to break a cryptographically
1784 %% secure PRNG, if we know the power of his/her
1785 %% machines. Such a concrete security evaluation 
1786 %% is related to the $(T,\varepsilon)-$security
1787 %% notion, which is recalled and evaluated in what 
1788 %% follows, for the sake of completeness.
1789
1790 %% Let us firstly recall that,
1791 %% \begin{definition}
1792 %% Let $\mathcal{D} : \mathds{B}^M \longrightarrow \mathds{B}$ be a probabilistic algorithm that runs
1793 %% in time $T$. 
1794 %% Let $\varepsilon > 0$. 
1795 %% $\mathcal{D}$ is called a $(T,\varepsilon)-$distinguishing attack on pseudorandom
1796 %% generator $G$ if
1797
1798 %% \begin{flushleft}
1799 %% $\left| Pr[\mathcal{D}(G(k)) = 1 \mid k \in_R \{0,1\}^\ell ]\right.$
1800 %% \end{flushleft}
1801
1802 %% \begin{flushright}
1803 %% $ - \left. Pr[\mathcal{D}(s) = 1 \mid s \in_R \mathds{B}^M ]\right| \geqslant \varepsilon,$
1804 %% \end{flushright}
1805
1806 %% \noindent where the probability is taken over the internal coin flips of $\mathcal{D}$, and the notation
1807 %% ``$\in_R$'' indicates the process of selecting an element at random and uniformly over the
1808 %% corresponding set.
1809 %% \end{definition}
1810
1811 %% Let us recall that the running time of a probabilistic algorithm is defined to be the
1812 %% maximum of the expected number of steps needed to produce an output, maximized
1813 %% over all inputs; the expected number is averaged over all coin flips made by the algorithm~\cite{Knuth97}.
1814 %% We are now able to define the notion of cryptographically secure PRNGs:
1815
1816 %% \begin{definition}
1817 %% A pseudorandom generator is $(T,\varepsilon)-$secure if there exists no $(T,\varepsilon)-$distinguishing attack on this pseudorandom generator.
1818 %% \end{definition}
1819
1820
1821
1822
1823
1824
1825
1826 %% Suppose now that the PRNG of Eq.~\eqref{equation Oplus} will work during 
1827 %% $M=100$ time units, and that during this period,
1828 %% an attacker can realize $10^{12}$ clock cycles.
1829 %% We thus wonder whether, during the PRNG's 
1830 %% lifetime, the attacker can distinguish this 
1831 %% sequence from a truly random one, with a probability
1832 %% greater than $\varepsilon = 0.2$.
1833 %% We consider that $N$ has 900 bits.
1834
1835 %% Predicting the next generated bit knowing all the
1836 %% previously released ones by Eq.~\eqref{equation Oplus} is obviously equivalent to predicting the
1837 %% next bit in the BBS generator, which
1838 %% is cryptographically secure. More precisely, it
1839 %% is $(T,\varepsilon)-$secure: no 
1840 %% $(T,\varepsilon)-$distinguishing attack can be
1841 %% successfully realized on this PRNG, if~\cite{Fischlin}
1842 %% \begin{equation}
1843 %% T \leqslant \dfrac{L(N)}{6 N (log_2(N))\varepsilon^{-2}M^2}-2^7 N \varepsilon^{-2} M^2 log_2 (8 N \varepsilon^{-1}M)
1844 %% \label{mesureConcrete}
1845 %% \end{equation}
1846 %% where $M$ is the length of the output ($M=100$ in
1847 %% our example), and $L(N)$ is equal to
1848 %% $$
1849 %% 2.8\times 10^{-3} exp \left(1.9229 \times (N ~ln~ 2)^\frac{1}{3} \times (ln(N~ln~  2))^\frac{2}{3}\right)
1850 %% $$
1851 %% is the number of clock cycles to factor a $N-$bit
1852 %% integer.
1853
1854
1855
1856
1857 %% A direct numerical application shows that this attacker 
1858 %% cannot achieve its $(10^{12},0.2)$ distinguishing
1859 %% attack in that context.
1860
1861
1862
1863 \section{Cryptographical Applications}
1864
1865 \subsection{A Cryptographically Secure PRNG for GPU}
1866 \label{sec:CSGPU}
1867
1868 It is  possible to build a  cryptographically secure PRNG based  on the previous
1869 algorithm (Algorithm~\ref{algo:gpu_kernel2}).   Due to Proposition~\ref{cryptopreuve},
1870 it simply consists  in replacing
1871 the  {\it  xor-like} PRNG  by  a  cryptographically  secure one.  
1872 We have chosen the Blum Blum Shub generator~\cite{BBS} (usually denoted by BBS) having the form:
1873 $$x_{n+1}=x_n^2~ mod~ M$$  where $M$ is the product of  two prime numbers (these
1874 prime numbers  need to be congruent  to 3 modulus  4). BBS is known to be
1875 very slow and only usable for cryptographic applications. 
1876
1877   
1878 The modulus operation is the most time consuming operation for current
1879 GPU cards.  So in order to obtain quite reasonable performances, it is
1880 required to use only modulus  on 32-bits integer numbers. Consequently
1881 $x_n^2$ need  to be lesser than $2^{32}$,  and thus the number $M$ must be
1882 lesser than $2^{16}$.  So in practice we can choose prime numbers around
1883 256 that are congruent to 3 modulus 4.  With 32-bits numbers, only the
1884 4 least significant bits of $x_n$ can be chosen (the maximum number of
1885 indistinguishable    bits    is    lesser    than   or    equals    to
1886 $log_2(log_2(M))$). In other words, to generate a  32-bits number, we need to use
1887 8 times  the BBS  algorithm with possibly different  combinations of  $M$. This
1888 approach is  not sufficient to be able to pass  all the tests of TestU01,
1889 as small values of  $M$ for the BBS  lead to
1890   small periods. So, in  order to add randomness  we have proceeded with
1891 the followings  modifications. 
1892 \begin{itemize}
1893 \item
1894 Firstly, we  define 16 arrangement arrays  instead of 2  (as described in
1895 Algorithm \ref{algo:gpu_kernel2}), but only 2 of them are used at each call of
1896 the  PRNG kernels. In  practice, the  selection of   combination
1897 arrays to be used is different for all the threads. It is determined
1898 by using  the three last bits  of two internal variables  used by BBS.
1899 %This approach  adds more randomness.   
1900 In Algorithm~\ref{algo:bbs_gpu},
1901 character  \& is for the  bitwise AND. Thus using  \&7 with  a number
1902 gives the last 3 bits, thus providing a number between 0 and 7.
1903 \item
1904 Secondly, after the  generation of the 8 BBS numbers  for each thread, we
1905 have a 32-bits number whose period is possibly quite small. So
1906 to add randomness,  we generate 4 more BBS numbers   to
1907 shift  the 32-bits  numbers, and  add up to  6 new  bits.  This  improvement is
1908 described  in Algorithm~\ref{algo:bbs_gpu}.  In  practice, the last 2 bits
1909 of the first new BBS number are  used to make a left shift of at most
1910 3 bits. The  last 3 bits of the  second new BBS number are  added to the
1911 strategy whatever the value of the first left shift. The third and the
1912 fourth new BBS  numbers are used similarly to apply  a new left shift
1913 and add 3 new bits.
1914 \item
1915 Finally, as  we use 8 BBS numbers  for each thread, the  storage of these
1916 numbers at the end of the  kernel is performed using a rotation. So,
1917 internal  variable for  BBS number  1 is  stored in  place  2, internal
1918 variable  for BBS  number 2  is  stored in  place 3,  ..., and finally, internal
1919 variable for BBS number 8 is stored in place 1.
1920 \end{itemize}
1921
1922 \begin{algorithm}
1923 \begin{small}
1924 \KwIn{InternalVarBBSArray: array with internal variables of the 8 BBS
1925 in global memory\;
1926 NumThreads: Number of threads\;
1927 array\_comb: 2D Arrays containing 16 combinations (in first dimension)  of size combination\_size (in second dimension)\;
1928 array\_shift[4]=\{0,1,3,7\}\;
1929 }
1930
1931 \KwOut{NewNb: array containing random numbers in global memory}
1932 \If{threadId is concerned} {
1933   retrieve data from InternalVarBBSArray[threadId] in local variables including shared memory and x\;
1934   we consider that bbs1 ... bbs8 represent the internal states of the 8 BBS numbers\;
1935   offset = threadIdx\%combination\_size\;
1936   o1 = threadIdx-offset+array\_comb[bbs1\&7][offset]\;
1937   o2 = threadIdx-offset+array\_comb[8+bbs2\&7][offset]\;
1938   \For{i=1 to n} {
1939     t$<<$=4\;
1940     t|=BBS1(bbs1)\&15\;
1941     ...\;
1942     t$<<$=4\;
1943     t|=BBS8(bbs8)\&15\;
1944     \tcp{two new shifts}
1945     shift=BBS3(bbs3)\&3\;
1946     t$<<$=shift\;
1947     t|=BBS1(bbs1)\&array\_shift[shift]\;
1948     shift=BBS7(bbs7)\&3\;
1949     t$<<$=shift\;
1950     t|=BBS2(bbs2)\&array\_shift[shift]\;
1951     t=t\textasciicircum  shmem[o1]\textasciicircum     shmem[o2]\;
1952     shared\_mem[threadId]=t\;
1953     x = x\textasciicircum   t\;
1954
1955     store the new PRNG in NewNb[NumThreads*threadId+i]\;
1956   }
1957   store internal variables in InternalVarXorLikeArray[threadId] using a rotation\;
1958 }
1959 \end{small}
1960 \caption{main kernel for the BBS based PRNG GPU}
1961 \label{algo:bbs_gpu}
1962 \end{algorithm}
1963
1964 In Algorithm~\ref{algo:bbs_gpu}, $n$ is for  the quantity of random numbers that
1965 a thread has to  generate.  The operation t<<=4 performs a left  shift of 4 bits
1966 on the variable  $t$ and stores the result in  $t$, and $BBS1(bbs1)\&15$ selects
1967 the last  four bits  of the  result of $BBS1$.   Thus an  operation of  the form
1968 $t<<=4; t|=BBS1(bbs1)\&15\;$  realizes in $t$ a  left shift of 4  bits, and then
1969 puts the 4 last bits of $BBS1(bbs1)$  in the four last positions of $t$.  Let us
1970 remark that the initialization $t$ is not a  necessity as we fill it 4 bits by 4
1971 bits, until  having obtained 32-bits.  The  two last new shifts  are realized in
1972 order to enlarge the small periods of  the BBS used here, to introduce a kind of
1973 variability.  In these operations, we make twice a left shift of $t$ of \emph{at
1974   most}  3 bits,  represented by  \texttt{shift} in  the algorithm,  and  we put
1975 \emph{exactly} the \texttt{shift}  last bits from a BBS  into the \texttt{shift}
1976 last bits of $t$. For this, an array named \texttt{array\_shift}, containing the
1977 correspondence between the  shift and the number obtained  with \texttt{shift} 1
1978 to make the \texttt{and} operation is used. For example, with a left shift of 0,
1979 we  make an  and operation  with 0,  with  a left  shift of  3, we  make an  and
1980 operation with 7 (represented by 111 in binary mode).
1981
1982 It should  be noticed that this generator has once more the form $x^{n+1} = x^n \oplus S^n$,
1983 where $S^n$ is referred in this algorithm as $t$: each iteration of this
1984 PRNG ends with $x = x \wedge t$. This $S^n$ is only constituted
1985 by secure bits produced by the BBS generator, and thus, due to
1986 Proposition~\ref{cryptopreuve}, the resulted PRNG is 
1987 cryptographically secure.
1988
1989 As stated before, even if the proposed PRNG is cryptocaphically
1990 secure, it does not mean that such a generator
1991 can be used as described here when attacks are
1992 awaited. The problem is to determine the minimum 
1993 time required for an attacker, with a given 
1994 computational power, to predict under a probability
1995 lower than 0.5 the $n+1$th bit, knowing the $n$
1996 previous ones. The proposed GPU generator will be
1997 useful in a security context, at least in some 
1998 situations where a secret protected by a pseudorandom
1999 keystream is rapidly obsolete, if this time to 
2000 predict the next bit is large enough when compared
2001 to both the generation and transmission times.
2002 It is true that the prime numbers used in the last
2003 section are very small compared to up-to-date 
2004 security recommendations. However the attacker has not
2005 access to each BBS, but to the output produced 
2006 by Algorithm~\ref{algo:bbs_gpu}, which is far
2007 more complicated than a simple BBS. Indeed, to
2008 determine if this cryptographically secure PRNG
2009 on GPU can be useful in security context with the 
2010 proposed parameters, or if it is only a very fast
2011 and statistically perfect generator on GPU, its
2012 $(T,\varepsilon)-$security must be determined, and
2013 a formulation similar to Eq.\eqref{mesureConcrete}
2014 must be established. Authors
2015 hope to achieve this difficult task in a future
2016 work.
2017
2018
2019 \subsection{Toward a Cryptographically Secure and Chaotic Asymmetric Cryptosystem}
2020 \label{Blum-Goldwasser}
2021 We finish this research work by giving some thoughts about the use of
2022 the proposed PRNG in an asymmetric cryptosystem.
2023 This first approach will be further investigated in a future work.
2024
2025 \subsubsection{Recalls of the Blum-Goldwasser Probabilistic Cryptosystem}
2026
2027 The Blum-Goldwasser cryptosystem is a cryptographically secure asymmetric key encryption algorithm 
2028 proposed in 1984~\cite{Blum:1985:EPP:19478.19501}.  The encryption algorithm 
2029 implements a XOR-based stream cipher using the BBS PRNG, in order to generate 
2030 the keystream. Decryption is done by obtaining the initial seed thanks to
2031 the final state of the BBS generator and the secret key, thus leading to the
2032  reconstruction of the keystream.
2033
2034 The key generation consists in generating two prime numbers $(p,q)$, 
2035 randomly and independently of each other, that are
2036  congruent to 3 mod 4, and to compute the modulus $N=pq$.
2037 The public key is $N$, whereas the secret key is the factorization $(p,q)$.
2038
2039
2040 Suppose Bob wishes to send a string $m=(m_0, \dots, m_{L-1})$ of $L$ bits to Alice:
2041 \begin{enumerate}
2042 \item Bob picks an integer $r$ randomly in the interval $\llbracket 1,N\rrbracket$ and computes $x_0 = r^2~mod~N$.
2043 \item He uses the BBS to generate the keystream of $L$ pseudorandom bits $(b_0, \dots, b_{L-1})$, as follows. For $i=0$ to $L-1$,
2044 \begin{itemize}
2045 \item $i=0$.
2046 \item While $i \leqslant L-1$:
2047 \begin{itemize}
2048 \item Set $b_i$ equal to the least-significant\footnote{As signaled previously, BBS can securely output up to $\mathsf{N} = \lfloor log(log(N)) \rfloor$ of the least-significant bits of $x_i$ during each round.} bit of $x_i$,
2049 \item $i=i+1$,
2050 \item $x_i = (x_{i-1})^2~mod~N.$
2051 \end{itemize}
2052 \end{itemize}
2053 \item The ciphertext is computed by XORing the plaintext bits $m$ with the keystream: $ c = (c_0, \dots, c_{L-1}) = m \oplus  b$. This ciphertext is $[c, y]$, where $y=x_{0}^{2^{L}}~mod~N.$
2054 \end{enumerate}
2055
2056
2057 When Alice receives $\left[(c_0, \dots, c_{L-1}), y\right]$, she can recover $m$ as follows:
2058 \begin{enumerate}
2059 \item Using the secret key $(p,q)$, she computes $r_p = y^{((p+1)/4)^{L}}~mod~p$ and $r_q = y^{((q+1)/4)^{L}}~mod~q$.
2060 \item The initial seed can be obtained using the following procedure: $x_0=q(q^{-1}~{mod}~p)r_p + p(p^{-1}~{mod}~q)r_q~{mod}~N$.
2061 \item She recomputes the bit-vector $b$ by using BBS and $x_0$.
2062 \item Alice finally computes the plaintext by XORing the keystream with the ciphertext: $ m = c \oplus  b$.
2063 \end{enumerate}
2064
2065
2066 \subsubsection{Proposal of a new Asymmetric Cryptosystem Adapted from Blum-Goldwasser}
2067
2068 We propose to adapt the Blum-Goldwasser protocol as follows. 
2069 Let $\mathsf{N} = \lfloor log(log(N)) \rfloor$ be the number of bits that can
2070 be obtained securely with the BBS generator using the public key $N$ of Alice.
2071 Alice will pick randomly $S^0$ in $\llbracket 0, 2^{\mathsf{N}-1}\rrbracket$ too, and
2072 her new public key will be $(S^0, N)$.
2073
2074 To encrypt his message, Bob will compute
2075 %%RAPH : ici, j'ai mis un simple $
2076 %\begin{equation}
2077 $c = \left(m_0 \oplus (b_0 \oplus S^0), m_1 \oplus (b_0 \oplus b_1 \oplus S^0), \hdots, \right.$
2078 $ \left. m_{L-1} \oplus (b_0 \oplus b_1 \hdots \oplus b_{L-1} \oplus S^0) \right)$
2079 %%\end{equation}
2080 instead of $\left(m_0 \oplus b_0, m_1 \oplus b_1, \hdots, m_{L-1} \oplus b_{L-1} \right)$. 
2081
2082 The same decryption stage as in Blum-Goldwasser leads to the sequence 
2083 $\left(m_0 \oplus S^0, m_1 \oplus S^0, \hdots, m_{L-1} \oplus S^0 \right)$.
2084 Thus, with a simple use of $S^0$, Alice can obtain the plaintext.
2085 By doing so, the proposed generator is used in place of BBS, leading to
2086 the inheritance of all the properties presented in this paper.
2087
2088 \section{Conclusion}
2089
2090
2091 In  this  paper, a formerly proposed PRNG based on chaotic iterations
2092 has been generalized to improve its speed. It has been proven to be
2093 chaotic according to Devaney.
2094 Efficient implementations on  GPU using xor-like  PRNGs as input generators
2095 have shown that a very large quantity of pseudorandom numbers can be generated per second (about
2096 20Gsamples/s), and that these proposed PRNGs succeed to pass the hardest battery in TestU01,
2097 namely the BigCrush.
2098 Furthermore, we have shown that when the inputted generator is cryptographically
2099 secure, then it is the case too for the PRNG we propose, thus leading to
2100 the possibility to develop fast and secure PRNGs using the GPU architecture.
2101 An improvement of the Blum-Goldwasser cryptosystem, making it 
2102 behave chaotically, has finally been proposed. 
2103
2104 In future  work we plan to extend this research, building a parallel PRNG for  clusters or
2105 grid computing. Topological properties of the various proposed generators will be investigated,
2106 and the use of other categories of PRNGs as input will be studied too. The improvement
2107 of Blum-Goldwasser will be deepened. Finally, we
2108 will try to enlarge the quantity of pseudorandom numbers generated per second either
2109 in a simulation context or in a cryptographic one.
2110
2111
2112
2113 \bibliographystyle{plain} 
2114 \bibliography{mabase}
2115 \end{document}