Les réseaux de neurones chaotiques ont été étudiés à de maintes reprises
par le passé en raison notamment de leurs applications potentielles:
%les mémoires associatives~\cite{Crook2007267}
Les réseaux de neurones chaotiques ont été étudiés à de maintes reprises
par le passé en raison notamment de leurs applications potentielles:
%les mémoires associatives~\cite{Crook2007267}
hachage~\cite{Xiao10},
le tatouage numérique~\cite{1309431,Zhang2005759}
ou les schémas de chiffrement~\cite{Lian20091296}.
Dans tous ces cas, l'emploi de fonctions chaotiques est motivé par
hachage~\cite{Xiao10},
le tatouage numérique~\cite{1309431,Zhang2005759}
ou les schémas de chiffrement~\cite{Lian20091296}.
Dans tous ces cas, l'emploi de fonctions chaotiques est motivé par
Les réseaux de neurones chaotiques peuvent être conçus selon plusieurs
principes. Des neurones modifiant leur état en suivant une fonction non
linéaire son par exemple appelés neurones chaotiques~\cite{Crook2007267}.
L'architecture de réseaux de neurones de type Perceptron multi-couches
Les réseaux de neurones chaotiques peuvent être conçus selon plusieurs
principes. Des neurones modifiant leur état en suivant une fonction non
linéaire son par exemple appelés neurones chaotiques~\cite{Crook2007267}.
L'architecture de réseaux de neurones de type Perceptron multi-couches
Il a cependant été démontré que ce sont des approximateurs
universels~\cite{Cybenko89,DBLP:journals/nn/HornikSW89}.
Ils permettent, dans certains cas, de simuler des comportements
Il a cependant été démontré que ce sont des approximateurs
universels~\cite{Cybenko89,DBLP:journals/nn/HornikSW89}.
Ils permettent, dans certains cas, de simuler des comportements
Ainsi $G_{f_u}$ est chaotique d'après le théorème~\ref{Th:CaracIC}.
On considère ici le schéma unaire défini par l'équation (\ref{eq:asyn}).
Ainsi $G_{f_u}$ est chaotique d'après le théorème~\ref{Th:CaracIC}.
On considère ici le schéma unaire défini par l'équation (\ref{eq:asyn}).
$F_{f_u}$.
Plus précisément, pour chaque entrée
$(x,s) \in \mathds{B}^n \times [n]$,
$F_{f_u}$.
Plus précisément, pour chaque entrée
$(x,s) \in \mathds{B}^n \times [n]$,
à travers les liens de retours.
\item Lorsque le réseau est activé à la $t^{th}$ itération, l'état du
système $x^t \in \mathds{B}^n$ reçu depuis la couche de sortie ainsi que le
à travers les liens de retours.
\item Lorsque le réseau est activé à la $t^{th}$ itération, l'état du
système $x^t \in \mathds{B}^n$ reçu depuis la couche de sortie ainsi que le
(\textit{i.e.}, $S^0 \in [n]$) servent à construire le nouveau vecteur de sortie.
Ce nouveau vecteur, qui représente le nouvel état du système dynamique, satisfait:
\begin{equation}
(\textit{i.e.}, $S^0 \in [n]$) servent à construire le nouveau vecteur de sortie.
Ce nouveau vecteur, qui représente le nouvel état du système dynamique, satisfait:
\begin{equation}
\section{Vérifier si un réseau de neurones est chaotique}
\label{S3}
On s'intéresse maintenant au cas où l'on dispose d'un
\section{Vérifier si un réseau de neurones est chaotique}
\label{S3}
On s'intéresse maintenant au cas où l'on dispose d'un
dont on cherche à savoir s'il est chaotique (parce qu'il a par exemple été
déclaré comme tel) au sens de Devaney.
On considère de plus que sa topologie est la suivante:
dont on cherche à savoir s'il est chaotique (parce qu'il a par exemple été
déclaré comme tel) au sens de Devaney.
On considère de plus que sa topologie est la suivante:
le vecteur
$\left(y_1,\dots,y_n\right) \in \mathds{B}^n$, où
$\left(y_1,\dots,y_n\right)$ sont les sorties du réseau neuronal
le vecteur
$\left(y_1,\dots,y_n\right) \in \mathds{B}^n$, où
$\left(y_1,\dots,y_n\right)$ sont les sorties du réseau neuronal
$\left(s,\left(x_1,\dots, x_n\right)\right)$. Ensuite, on définie $f:
\mathds{B}^n \rightarrow \mathds{B}^n$ telle que
$f\left(x_1,x_2,\dots,x_n\right)$ est égal à
$\left(s,\left(x_1,\dots, x_n\right)\right)$. Ensuite, on définie $f:
\mathds{B}^n \rightarrow \mathds{B}^n$ telle que
$f\left(x_1,x_2,\dots,x_n\right)$ est égal à
Cette section s'intéresse à étudier le comportement d'un réseau de neurones
face à des itérations unaires chaotiques, comme définies à
la section~\ref{sec:TIPE12}.
Cette section s'intéresse à étudier le comportement d'un réseau de neurones
face à des itérations unaires chaotiques, comme définies à
la section~\ref{sec:TIPE12}.
des itérations unaires est fortement connexe et une séquence dans
$[n]^{\mathds{N}}$. On cherche à construire un réseau de neurones
qui approximerait les itérations de la fonction $G_{f_u}$ comme définie
des itérations unaires est fortement connexe et une séquence dans
$[n]^{\mathds{N}}$. On cherche à construire un réseau de neurones
qui approximerait les itérations de la fonction $G_{f_u}$ comme définie
arbitrairement des configurations diamétralement
opposées dans le $n$-cube comme une puissance de
deux et la configuration immédiatement précédente: 10000 serait modélisée
arbitrairement des configurations diamétralement
opposées dans le $n$-cube comme une puissance de
deux et la configuration immédiatement précédente: 10000 serait modélisée
De manière similaire, ce codage éloigne des configurations qui sont
très proches: par exemple 10000 et 00000 ont une distance de Hamming
de 1 et sont respectivement représentées par 16 et 0.
Pour ces raisons, le codage retenu est celui des codes de Gray~\cite{Gray47}.
Concentrons nous sur la traduction de la stratégie.
De manière similaire, ce codage éloigne des configurations qui sont
très proches: par exemple 10000 et 00000 ont une distance de Hamming
de 1 et sont respectivement représentées par 16 et 0.
Pour ces raisons, le codage retenu est celui des codes de Gray~\cite{Gray47}.
Concentrons nous sur la traduction de la stratégie.
infinie quelconque à l'aide d'un nombre fini d'éléments.
On se restreint donc à des stratégies de taille
infinie quelconque à l'aide d'un nombre fini d'éléments.
On se restreint donc à des stratégies de taille
initialement.
Chaque stratégie est mémorisée comme un entier naturel exprimé en base
$n+1$: à chaque itération, soit aucun élément n'est modifié, soit un
initialement.
Chaque stratégie est mémorisée comme un entier naturel exprimé en base
$n+1$: à chaque itération, soit aucun élément n'est modifié, soit un
Chaque entrée, de l'entrée-sortie de l'outil est un triplet
composé d'une configuration $x$, d'un extrait $S$ de la stratégie à
itérer de taille $l \in \llbracket 2, k\rrbracket$ et d'un nombre $m \in \llbracket 1, l-1\rrbracket$ d'itérations à exécuter.
Chaque entrée, de l'entrée-sortie de l'outil est un triplet
composé d'une configuration $x$, d'un extrait $S$ de la stratégie à
itérer de taille $l \in \llbracket 2, k\rrbracket$ et d'un nombre $m \in \llbracket 1, l-1\rrbracket$ d'itérations à exécuter.
2^n \times \left(\dfrac{(k-1)\times n^{k+1}}{n-1} - \dfrac{n^{k+1}-n^2}{(n-1)^2}\right) \enspace .
$$
Par exemple, pour $4$ éléments binaires et une stratégie d'au plus
2^n \times \left(\dfrac{(k-1)\times n^{k+1}}{n-1} - \dfrac{n^{k+1}-n^2}{(n-1)^2}\right) \enspace .
$$
Par exemple, pour $4$ éléments binaires et une stratégie d'au plus
-On se focalise dans cette section sur l'entraînement d'un perceptron
-multi-couche pour apprendre des itérations chaotiques. Ce type de réseau
+On se focalise dans cette section sur l'entraînement d'un Perceptron
+multi-couches pour apprendre des itérations chaotiques. Ce type de réseau
ayant déjà été évalué avec succès dans la prédiction de
séries chaotiques temporelles. En effet, les auteurs de~\cite{dalkiran10}
ont montré qu'un MLP pouvait apprendre la dynamique du circuit de Chua.
Ce réseau avec rétropropagation est composé de deux couches
ayant déjà été évalué avec succès dans la prédiction de
séries chaotiques temporelles. En effet, les auteurs de~\cite{dalkiran10}
ont montré qu'un MLP pouvait apprendre la dynamique du circuit de Chua.
Ce réseau avec rétropropagation est composé de deux couches
ont été détaillé dans~\cite{bcgs12:ij}.
En pratique, nous avons considéré des configurations de
quatre éléments booléens
ont été détaillé dans~\cite{bcgs12:ij}.
En pratique, nous avons considéré des configurations de
quatre éléments booléens
figures~\ref{Fig:chaotic_predictions} et~\ref{Fig:non-chaotic_predictions}.
De plus, comme dans le codage précédent, les stratégies ne peuvent pas être
prédites.
figures~\ref{Fig:chaotic_predictions} et~\ref{Fig:non-chaotic_predictions}.
De plus, comme dans le codage précédent, les stratégies ne peuvent pas être
prédites.
largement moins performant que le premier.
On peut expliquer ceci par le fait
que ce second codage garantit que deux entiers successifs correspondent
largement moins performant que le premier.
On peut expliquer ceci par le fait
que ce second codage garantit que deux entiers successifs correspondent
-Dans ce chapitre, nous avons établi une simlilitude entre les itérations
-chaotiques et une famille de perceptrons multicouches.
+Dans ce chapitre, nous avons établi une similitude entre les itérations
+chaotiques et une famille de Perceptrons multi-couches.
Nous avons d'abord montré comment construire un réseau de neurones
ayant un comportement chaotique.
Nous avons présenté ensuite comment vérifier si un réseau de neurones
Nous avons d'abord montré comment construire un réseau de neurones
ayant un comportement chaotique.
Nous avons présenté ensuite comment vérifier si un réseau de neurones