]> AND Private Git Repository - hdrcouchot.git/blobdiff - chaosANN.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
après remarques tof
[hdrcouchot.git] / chaosANN.tex
index a81867590ba516072c0ca0ebce9390fcb3cf84b9..143ce2347b09cfd7548748577435f5a48db67a23 100644 (file)
@@ -14,7 +14,9 @@ Les réseaux de neurones chaotiques peuvent être conçus selon plusieurs
 principes. Des neurones modifiant leur état en suivant une fonction non 
 linéaire sont par exemple appelés neurones chaotiques~\cite{Crook2007267}.
 L'architecture de réseaux de neurones de type Perceptron multi-couches
-(MLP) n'itèrent quant à eux, pas nécessairement de fonctions chaotiques.
+(MLP) n'itèrent quant à eux classiquement pas de fonction chaotique:
+leurs fonctions d'activation sont usuellement choisies parmi les sigmoïdes 
+(la fonction tangeante hyperbolique par exemple). 
 Il a cependant été démontré  que ce sont des approximateurs 
 universels~\cite{Cybenko89,DBLP:journals/nn/HornikSW89}.   
 Ils permettent, dans certains cas, de simuler des comportements 
@@ -39,7 +41,8 @@ chaotique selon Devanay. La section~\ref{S3} présente l'approche duale
 de vérification si un réseau de neurones est chaotique ou non.
 La section~\ref{sec:ann:approx} s'intéresse à étudier pratiquement
 si un réseau de 
-neurones peut approximer des itérations unaires chaotiques. Ces itérations
+neurones peut approximer des itérations unaires chaotiques, 
+ces itérations
 étant obtenues à partir de fonctions issues de la démarche détaillée dans 
 le chapitre précédent.
 Ce travail a été publié dans~\cite{bcgs12:ij}.
@@ -419,7 +422,7 @@ réseau de neurones d'apprendre le comportement global d'itérations
 chaotiques.
 Comme il est difficile (voir impossible) d'apprendre le comportement 
 de telles fonctions, il paraît naturel de savoir si celles ci peuvent être 
-utilisées pour générer des nombres pseudo aléatoires, ce que propose la partie
+utilisées pour générer des nombres pseudo-aléatoires, ce que propose la partie
 suivante.