]> AND Private Git Repository - hpcc2014.git/blobdiff - hpcc.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
correction d'une coquille dans le tableau
[hpcc2014.git] / hpcc.tex
index d37619469442bee9c8f51c604bb526d60a114ab8..9dbbb3f061b505e79fcf832513d453169d2d58cb 100644 (file)
--- a/hpcc.tex
+++ b/hpcc.tex
@@ -248,21 +248,27 @@ this paper.  The SMPI interface implements about \np[\%]{80} of the MPI 2.0
 standard~\cite{bedaride:hal-00919507}, and supports applications written in C or
 Fortran, with little or no modifications.
 
 standard~\cite{bedaride:hal-00919507}, and supports applications written in C or
 Fortran, with little or no modifications.
 
-With SimGrid, the execution of a distributed application is simulated on a
+Within SimGrid, the execution of a distributed application is simulated on a
 single machine.  The application code is really executed, but some operations
 single machine.  The application code is really executed, but some operations
-like the communications are intercepted to be simulated according to the
-characteristics of the simulated execution platform.  The description of this
-target platform is given as an input for the execution, by the mean of an XML
-file.  It describes the properties of the platform, such as the computing node
-with their computing power, the interconnection links with their bandwidth and
-latency, and the routing strategy.  The simulated running time of the
-application is computed according to these properties.
-
-%%% TODO: add some words+refs about SimGrid's accuracy and scalability.}
-
-\AG{Faut-il ajouter quelque-chose ?} 
-\CER{Comme tu as décrit la plateforme d'exécution, on peut ajouter éventuellement le fichier XML contenant des hosts dans les clusters formant la grille
-  \AG{Bof.}}
+like the communications are intercepted, and their running time is computed
+according to the characteristics of the simulated execution platform.  The
+description of this target platform is given as an input for the execution, by
+the mean of an XML file.  It describes the properties of the platform, such as
+the computing node with their computing power, the interconnection links with
+their bandwidth and latency, and the routing strategy.  The simulated running
+time of the application is computed according to these properties.
+
+To compute the durations of the operations in the simulated world, and to take
+into account resource sharing (e.g. bandwidth sharing between competing
+communications), SimGrid uses a fluid model.  This allows to run relatively fast
+simulations, while still keeping accurate
+results~\cite{bedaride:hal-00919507,tomacs13}.  Moreover, depending on the
+simulated application, SimGrid/SMPI allows to skip long lasting computations and
+to only take their duration into account.  When the real computations cannot be
+skipped, but the results have no importance for the simulation results, there is
+also the possibility to share dynamically allocated data structures between
+several simulated processes, and thus to reduce the whole memory consumption.
+These two techniques can help to run simulations at a very large scale.
 
 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
 \section{Simulation of the multisplitting method}
 
 %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
 \section{Simulation of the multisplitting method}
@@ -374,9 +380,7 @@ global variables have been moved to local variables for each subroutine. In fact
 shared memory used by threads simulating each computing unit in the SimGrid architecture. Second, the alignment of certain types of variables such as ``long int'' had
 also to be reviewed. Finally, some compilation errors on MPI\_Waitall and MPI\_Finalize primitives have been fixed with the latest version of SimGrid.
 In total, the initial MPI program running on the simulation environment SMPI gave after a very simple adaptation the same results as those obtained in a real 
 shared memory used by threads simulating each computing unit in the SimGrid architecture. Second, the alignment of certain types of variables such as ``long int'' had
 also to be reviewed. Finally, some compilation errors on MPI\_Waitall and MPI\_Finalize primitives have been fixed with the latest version of SimGrid.
 In total, the initial MPI program running on the simulation environment SMPI gave after a very simple adaptation the same results as those obtained in a real 
-environment. We have tested in synchronous mode with a simulated platform starting from a modest 2 or 3 clusters grid to a larger configuration like simulating 
-Grid5000 with more than 1500 hosts with 5000 cores~\cite{bolze2006grid}.
-
+environment. We have successfully executed the code in synchronous mode using GMRES algorithm compared with a multisplitting method in asynchrnous mode after few modification. 
 
 
 \section{Experimental results}
 
 
 \section{Experimental results}
@@ -393,17 +397,17 @@ study that the results depend on the following parameters:
   \textit{external} precision are critical. They allow to ensure not only the
   convergence of the algorithm but also to get the main objective of the
   experimentation of the simulation in having an execution time in asynchronous
   \textit{external} precision are critical. They allow to ensure not only the
   convergence of the algorithm but also to get the main objective of the
   experimentation of the simulation in having an execution time in asynchronous
-  less than in synchronous mode (i.e. speed-up less than 1).
+  less than in synchronous mode. The ratio between the execution time of asynchronous compared to the synchronous mode is defined as the "relative gain". So, our objective running the algorithm in SimGrid is to obtain a relative gain greater than 1.
 \end{itemize}
 \LZK{Propositions pour remplacer le terme ``speedup'': acceleration ratio ou relative gain}
 \end{itemize}
 \LZK{Propositions pour remplacer le terme ``speedup'': acceleration ratio ou relative gain}
-
-A priori, obtaining a speedup less than 1 would be difficult in a local area
+\CER{C'est fait. En conséquence, les tableaux et les commentaires ont été aussi modifiés}
+A priori, obtaining a relative gain greater than 1 would be difficult in a local area
 network configuration where the synchronous mode will take advantage on the
 rapid exchange of information on such high-speed links. Thus, the methodology
 adopted was to launch the application on clustered network. In this last
 configuration, degrading the inter-cluster network performance will
 network configuration where the synchronous mode will take advantage on the
 rapid exchange of information on such high-speed links. Thus, the methodology
 adopted was to launch the application on clustered network. In this last
 configuration, degrading the inter-cluster network performance will
-\textit{penalize} the synchronous mode allowing to get a speedup lower than 1.
-This action simulates the case of clusters linked with long distance network
+\textit{penalize} the synchronous mode allowing to get a relative gain greater than 1.
+This action simulates the case of distant clusters linked with long distance network
 like Internet.
 
 In this paper, we solve the 3D Poisson problem whose the mathematical model is 
 like Internet.
 
 In this paper, we solve the 3D Poisson problem whose the mathematical model is 
@@ -443,7 +447,7 @@ containing 50 hosts each, totaling 100 hosts. Various combinations of the above
 factors have providing the results shown in Table~\ref{tab.cluster.2x50} with a
 matrix size ranging from $N_x = N_y = N_z = \text{62}$ to 171 elements or from
 $\text{62}^\text{3} = \text{\np{238328}}$ to $\text{171}^\text{3} =
 factors have providing the results shown in Table~\ref{tab.cluster.2x50} with a
 matrix size ranging from $N_x = N_y = N_z = \text{62}$ to 171 elements or from
 $\text{62}^\text{3} = \text{\np{238328}}$ to $\text{171}^\text{3} =
-\text{\np{5211000}}$ entries.
+\text{\np{5000211}}$ entries.
 
 % use the same column width for the following three tables
 \newlength{\mytablew}\settowidth{\mytablew}{\footnotesize\np{E-11}}
 
 % use the same column width for the following three tables
 \newlength{\mytablew}\settowidth{\mytablew}{\footnotesize\np{E-11}}
@@ -475,8 +479,8 @@ $\text{62}^\text{3} = \text{\np{238328}}$ to $\text{171}^\text{3} =
     Prec/Eprec
     & \np{E-5}  & \np{E-8}  & \np{E-9}  & \np{E-11} & \np{E-11} & \np{E-11} \\
     \hline
     Prec/Eprec
     & \np{E-5}  & \np{E-8}  & \np{E-9}  & \np{E-11} & \np{E-11} & \np{E-11} \\
     \hline
-    speedup
-    & 0.396     & 0.392     & 0.396     & 0.391     & 0.393     & 0.395 \\
+    Relative gain
+    & 2.52     & 2.55     & 2.52     & 2.57     & 2.54     & 2.53 \\
     \hline
   \end{mytable}
 
     \hline
   \end{mytable}
 
@@ -499,8 +503,8 @@ $\text{62}^\text{3} = \text{\np{238328}}$ to $\text{171}^\text{3} =
     Prec/Eprec
     & \np{E-11} & \np{E-11} & \np{E-11} & \np{E-11} & \np{E-5}  & \np{E-5} \\
     \hline
     Prec/Eprec
     & \np{E-11} & \np{E-11} & \np{E-11} & \np{E-11} & \np{E-5}  & \np{E-5} \\
     \hline
-    speedup
-    & 0.398     & 0.388     & 0.393     & 0.394     & 0.63      & 0.778 \\
+    Relative gain
+    & 2.51     & 2.58     & 2.55     & 2.54     & 1.59      & 1.29 \\
     \hline
   \end{mytable}
 \end{table}
     \hline
   \end{mytable}
 \end{table}
@@ -509,7 +513,7 @@ Then we have changed the network configuration using three clusters containing
 respectively 33, 33 and 34 hosts, or again by on hundred hosts for all the
 clusters. In the same way as above, a judicious choice of key parameters has
 permitted to get the results in Table~\ref{tab.cluster.3x33} which shows the
 respectively 33, 33 and 34 hosts, or again by on hundred hosts for all the
 clusters. In the same way as above, a judicious choice of key parameters has
 permitted to get the results in Table~\ref{tab.cluster.3x33} which shows the
-speedups less than 1 with a matrix size from 62 to 100 elements.
+relative gains greater than 1 with a matrix size from 62 to 100 elements.
 
 \begin{table}[!t]
   \centering
 
 \begin{table}[!t]
   \centering
@@ -533,8 +537,8 @@ speedups less than 1 with a matrix size from 62 to 100 elements.
     Prec/Eprec
     & \np{E-5} & \np{E-5} & \np{E-5} & \np{E-5} & \np{E-5} & \np{E-5} \\
     \hline
     Prec/Eprec
     & \np{E-5} & \np{E-5} & \np{E-5} & \np{E-5} & \np{E-5} & \np{E-5} \\
     \hline
-    speedup
-    & 0.997    & 0.99     & 0.93     & 0.84     & 0.78     & 0.99 \\
+    Relative gain
+    & 1.003    & 1.01     & 1.08     & 1.19     & 1.28     & 1.01 \\
     \hline
   \end{mytable}
 \end{table}
     \hline
   \end{mytable}
 \end{table}
@@ -560,7 +564,7 @@ Table~\ref{tab.cluster.3x67}.
     \hline
     Prec/Eprec & \np{E-5} \\
     \hline
     \hline
     Prec/Eprec & \np{E-5} \\
     \hline
-    speedup    & 0.9 \\
+    Relative gain    & 1.11 \\
     \hline
   \end{mytable}
 \end{table}
     \hline
   \end{mytable}
 \end{table}
@@ -584,11 +588,8 @@ lat latency, \dots{}).
        \item Maximum number of internal and external iterations;
        \item Internal and external precisions;
        \item Matrix size $N_x$, $N_y$ and $N_z$;
        \item Maximum number of internal and external iterations;
        \item Internal and external precisions;
        \item Matrix size $N_x$, $N_y$ and $N_z$;
-%<<<<<<< HEAD
        \item Matrix diagonal value: \np{6.0};
        \item Matrix Off-diagonal value: \np{-1.0};
        \item Matrix diagonal value: \np{6.0};
        \item Matrix Off-diagonal value: \np{-1.0};
-%=======
-%>>>>>>> 5fb6769d88c1720b6480a28521119ef010462fa6
        \item Execution Mode: synchronous or asynchronous.
 \end{itemize}
 
        \item Execution Mode: synchronous or asynchronous.
 \end{itemize}
 
@@ -597,7 +598,7 @@ lat latency, \dots{}).
 After analyzing the outputs, generally, for the configuration with two or three
 clusters including one hundred hosts (Tables~\ref{tab.cluster.2x50}
 and~\ref{tab.cluster.3x33}), some combinations of the used parameters affecting
 After analyzing the outputs, generally, for the configuration with two or three
 clusters including one hundred hosts (Tables~\ref{tab.cluster.2x50}
 and~\ref{tab.cluster.3x33}), some combinations of the used parameters affecting
-the results have given a speedup less than 1, showing the effectiveness of the
+the results have given a relative gain more than 2.5, showing the effectiveness of the
 asynchronous performance compared to the synchronous mode.
 
 In the case of a two clusters configuration, Table~\ref{tab.cluster.2x50} shows
 asynchronous performance compared to the synchronous mode.
 
 In the case of a two clusters configuration, Table~\ref{tab.cluster.2x50} shows
@@ -606,29 +607,31 @@ bandwidth, a latency in order of a hundredth of a millisecond and a system power
 of one GFlops, an efficiency of about \np[\%]{40} in asynchronous mode is
 obtained for a matrix size of 62 elements. It is noticed that the result remains
 stable even if we vary the external precision from \np{E-5} to \np{E-9}. By
 of one GFlops, an efficiency of about \np[\%]{40} in asynchronous mode is
 obtained for a matrix size of 62 elements. It is noticed that the result remains
 stable even if we vary the external precision from \np{E-5} to \np{E-9}. By
-increasing the problem size up to 100 elements, it was necessary to increase the
+increasing the matrix size up to 100 elements, it was necessary to increase the
 CPU power of \np[\%]{50} to \np[GFlops]{1.5} for a convergence of the algorithm
 with the same order of asynchronous mode efficiency.  Maintaining such a system
 power but this time, increasing network throughput inter cluster up to
 CPU power of \np[\%]{50} to \np[GFlops]{1.5} for a convergence of the algorithm
 with the same order of asynchronous mode efficiency.  Maintaining such a system
 power but this time, increasing network throughput inter cluster up to
-\np[Mbit/s]{50}, the result of efficiency of about \np[\%]{40} is obtained with
+\np[Mbit/s]{50}, the result of efficiency with a relative gain of 1.5 is obtained with
 high external precision of \np{E-11} for a matrix size from 110 to 150 side
 elements.
 
 For the 3 clusters architecture including a total of 100 hosts,
 Table~\ref{tab.cluster.3x33} shows that it was difficult to have a combination
 high external precision of \np{E-11} for a matrix size from 110 to 150 side
 elements.
 
 For the 3 clusters architecture including a total of 100 hosts,
 Table~\ref{tab.cluster.3x33} shows that it was difficult to have a combination
-which gives an efficiency of asynchronous below \np[\%]{80}. Indeed, for a
+which gives a relative gain of asynchronous mode more than 1.2. Indeed, for a
 matrix size of 62 elements, equality between the performance of the two modes
 (synchronous and asynchronous) is achieved with an inter cluster of
 matrix size of 62 elements, equality between the performance of the two modes
 (synchronous and asynchronous) is achieved with an inter cluster of
-\np[Mbit/s]{10} and a latency of \np[ms]{E-1}. To challenge an efficiency by
-\np[\%]{78} with a matrix size of 100 points, it was necessary to degrade the
+\np[Mbit/s]{10} and a latency of \np[ms]{E-1}. To challenge an efficiency greater than 1.2 with a matrix size of 100 points, it was necessary to degrade the
 inter cluster network bandwidth from 5 to \np[Mbit/s]{2}.
 
 A last attempt was made for a configuration of three clusters but more powerful
 inter cluster network bandwidth from 5 to \np[Mbit/s]{2}.
 
 A last attempt was made for a configuration of three clusters but more powerful
-with 200 nodes in total. The convergence with a speedup of \np[\%]{90} was
+with 200 nodes in total. The convergence with a relative gain around 1.1 was
 obtained with a bandwidth of \np[Mbit/s]{1} as shown in
 Table~\ref{tab.cluster.3x67}.
 
 \LZK{Dans le papier, on compare les deux versions synchrone et asycnhrone du multisplitting. Y a t il des résultats pour comparer gmres parallèle classique avec multisplitting asynchrone? Ca permettra de montrer l'intérêt du multisplitting asynchrone sur des clusters distants}
 obtained with a bandwidth of \np[Mbit/s]{1} as shown in
 Table~\ref{tab.cluster.3x67}.
 
 \LZK{Dans le papier, on compare les deux versions synchrone et asycnhrone du multisplitting. Y a t il des résultats pour comparer gmres parallèle classique avec multisplitting asynchrone? Ca permettra de montrer l'intérêt du multisplitting asynchrone sur des clusters distants}
+\CER{En fait, les résultats ont été obtenus en comparant les temps d'exécution entre l'algo classique GMRES en mode synchrone avec le multisplitting en mode asynchrone, le tout sur un environnement de clusters distants}
+
+\RC{Est ce qu'on sait expliquer pourquoi il y a une telle différence entre les résultats avec 2 et 3 clusters... Avec 3 clusters, ils sont pas très bons... Je me demande s'il ne faut pas les enlever...}
 
 \section{Conclusion}
 The experimental results on executing a parallel iterative algorithm in 
 
 \section{Conclusion}
 The experimental results on executing a parallel iterative algorithm in