]> AND Private Git Repository - loba-papers.git/blobdiff - supercomp11/supercomp11.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
Reindent.
[loba-papers.git] / supercomp11 / supercomp11.tex
index f41425c39afa1f7d7b3452e49f3cfd4905633c8d..1faf1b03ca6afe1d4407ab771812f940c5a32c07 100644 (file)
@@ -497,8 +497,9 @@ an amount of load at less than 1\% of the load average, during an arbitrary
 number of computing iterations (2000 in our case).
 
 Note that this convergence detection was implemented in a centralized manner.
-This is easy to do within the simulator, but it's obviously not realistic.  In
-a real application we would have chosen a decentralized convergence detection algorithm, like the one described in \cite{10.1109/TPDS.2005.2}.
+This is easy to do within the simulator, but it's obviously not realistic.  In a
+real application we would have chosen a decentralized convergence detection
+algorithm, like the one described in \cite{10.1109/TPDS.2005.2}.
 
 \paragraph{Platforms}
 
@@ -582,7 +583,7 @@ With these constraints in mind, we defined the following metrics:
   that can be compared between simulations of different sizes.
 
   This metric is expected to give an idea of the ability of the strategy to
-  diffuse the load quickly, lesser is better.
+  diffuse the load quickly.  A smaller value is better.
 
 \item[\textbf{average convergence date:}] that's the average of the dates when
   all nodes reached the convergence state.  The dates are measured as a number
@@ -592,15 +593,15 @@ With these constraints in mind, we defined the following metrics:
   reached the convergence state.
 
   These two dates give an idea of the time needed by the strategy to reach the
-  equilibrium state, lesser is doubtlessly better.
+  equilibrium state.  A smaller value is better.
 
-\item[\textbf{data transfer amount:}] that's the sum of the amount of data of
-  all transfers during the simulation.  This sum is then normalized by dividing
-  it by the total amount of data present in the system.
+\item[\textbf{data transfer amount:}] that's the sum of the amount of all data
+  transfers during the simulation.  This sum is then normalized by dividing it
+  by the total amount of data present in the system.
 
   This metric is expected to give an idea of the efficiency of the strategy in
   terms of data movements, i.e. its ability to reach the equilibrium with fewer
-  transfers.
+  transfers.  Again, a smaller value is better.
 
 \end{description}