principes. Des neurones modifiant leur état en suivant une fonction non
linéaire sont par exemple appelés neurones chaotiques~\cite{Crook2007267}.
L'architecture de réseaux de neurones de type Perceptron multi-couches
-(MLP) n'itèrent quant à eux, pas nécessairement de fonctions chaotiques.
+(MLP) n'itèrent quant à eux classiquement pas de fonction chaotique:
+leurs fonctions d'activation sont usuellement choisies parmi les sigmoïdes
+(la fonction tangeante hyperbolique par exemple).
Il a cependant été démontré que ce sont des approximateurs
universels~\cite{Cybenko89,DBLP:journals/nn/HornikSW89}.
Ils permettent, dans certains cas, de simuler des comportements
de vérification si un réseau de neurones est chaotique ou non.
La section~\ref{sec:ann:approx} s'intéresse à étudier pratiquement
si un réseau de
-neurones peut approximer des itérations unaires chaotiques. Ces itérations
+neurones peut approximer des itérations unaires chaotiques,
+ces itérations
étant obtenues à partir de fonctions issues de la démarche détaillée dans
le chapitre précédent.
Ce travail a été publié dans~\cite{bcgs12:ij}.
chaotiques.
Comme il est difficile (voir impossible) d'apprendre le comportement
de telles fonctions, il paraît naturel de savoir si celles ci peuvent être
-utilisées pour générer des nombres pseudo aléatoires, ce que propose la partie
+utilisées pour générer des nombres pseudo-aléatoires, ce que propose la partie
suivante.