]> AND Private Git Repository - hpcc2014.git/blobdiff - hpcc.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
v7
[hpcc2014.git] / hpcc.tex
index bea95a4289657d250aff4c2d0d3c4695b5308c6d..6a39362badcb21cccadbc9380115562754ad6eed 100644 (file)
--- a/hpcc.tex
+++ b/hpcc.tex
@@ -83,7 +83,7 @@ paper, we show  that it is interesting to use SimGrid  to simulate the behaviors
 of asynchronous  iterative algorithms. For that,  we compare the  behaviour of a
 synchronous  GMRES  algorithm  with  an  asynchronous  multisplitting  one  with
 simulations  which let us easily choose  some parameters.   Both  codes  are real  MPI
-codes ans simulations allow us to see when the asynchronous multisplitting algorithm can be more
+codes and simulations allow us to see when the asynchronous multisplitting algorithm can be more
 efficient than the GMRES one to solve a 3D Poisson problem.
 
 
@@ -103,7 +103,7 @@ suggests, these algorithms solve a given problem by successive iterations ($X_{n
 $X_{0}$ to find an approximate value $X^*$ of the solution with a very low residual error. Several well-known methods
 demonstrate the convergence of these algorithms~\cite{BT89,Bahi07}.
 
-Parallelization of such algorithms generally involve the division of the problem
+Parallelization of such algorithms generally involves the division of the problem
 into  several  \emph{blocks}  that  will  be  solved  in  parallel  on  multiple
 processing units. The latter will communicate each intermediate results before a
 new  iteration starts  and until  the  approximate solution  is reached.   These
@@ -228,13 +228,13 @@ In the context of asynchronous algorithms, the number of iterations to reach the
 convergence depends on  the delay of messages. With  synchronous iterations, the
 number of  iterations is exactly  the same than  in the sequential mode  (if the
 parallelization process does  not change the algorithm). So  the difficulty with
-asynchronous iteratie algorithms comes from the fact it is necessary to run the algorithm
+asynchronous iterative algorithms comes from the fact it is necessary to run the algorithm
 with real data. In fact, from an execution to another the order of messages will
 change and the  number of iterations to reach the  convergence will also change.
 According  to all  the parameters  of the  platform (number  of nodes,  power of
-nodes,  inter  and  intra clusrters  bandwith  and  latency,  ....) and  of  the
-algorithm  (number   of  splitting  with  the   multisplitting  algorithm),  the
-multisplitting code  will obtain the solution  more or less  quickly. Or course,
+nodes,  inter  and  intra clusrters  bandwith  and  latency, etc.) and  of  the
+algorithm  (number   of  splittings  with  the   multisplitting  algorithm),  the
+multisplitting code  will obtain the solution  more or less  quickly. Of course,
 the GMRES method also depends of the same parameters. As it is difficult to have
 access to  many clusters,  grids or supercomputers  with many  different network
 parameters,  it  is  interesting  to  be  able  to  simulate  the  behaviors  of
@@ -251,8 +251,8 @@ SimGrid~\cite{SimGrid,casanova+legrand+quinson.2008.simgrid} is a simulation
 framework to study the behavior of large-scale distributed systems.  As its name
 says, it emanates from the grid computing community, but is nowadays used to
 study grids, clouds, HPC or peer-to-peer systems.  The early versions of SimGrid
-date from 1999, but it's still actively developed and distributed as an open
-source software.  Today, it's one of the major generic tools in the field of
+date from 1999, but it is still actively developed and distributed as an open
+source software.  Today, it is one of the major generic tools in the field of
 simulation for large-scale distributed systems.
 
 SimGrid provides several programming interfaces: MSG to simulate Concurrent
@@ -383,8 +383,8 @@ exchanged by message passing using MPI non-blocking communication routines.
 
 \begin{figure}[!t]
 \centering
-  \includegraphics[width=60mm,keepaspectratio]{clustering2}
-\caption{Example of two distant clusters of processors.}
+  \includegraphics[width=60mm,keepaspectratio]{clustering}
+\caption{Example of three distant clusters of processors.}
 \label{fig:4.1}
 \end{figure}
 
@@ -422,7 +422,7 @@ u =0 \text{~on~} \Gamma =\partial\Omega
 \right.
 \label{eq:02}
 \end{equation}
-where $\nabla^2$ is the Laplace operator, $f$ and $u$ are real-valued functions, and $\Omega=[0,1]^3$. The spatial discretization with a finite difference scheme reduces problem~(\ref{eq:02}) to a system of sparse linear equations. Our multisplitting method solves the 3D Poisson problem using a seven point stencil whose the general expression could be written as
+where $\nabla^2$ is the Laplace operator, $f$ and $u$ are real-valued functions, and $\Omega=[0,1]^3$. The spatial discretization with a finite differences scheme reduces problem~(\ref{eq:02}) to a system of sparse linear equations. Our multisplitting method solves the 3D Poisson problem using a seven point stencil whose the general expression could be written as
 \begin{equation}
 \begin{array}{l}
 u(x-1,y,z) + u(x,y-1,z) + u(x,y,z-1)\\+u(x+1,y,z)+u(x,y+1,z)+u(x,y,z+1) \\ -6u(x,y,z)=h^2f(x,y,z),