]> AND Private Git Repository - Krylov_multi.git/blobdiff - krylov_multi.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
suite
[Krylov_multi.git] / krylov_multi.tex
index 1010f0775f13dc0ca215b7fe3e5c99b3dcae10ea..0ff91756aac33a02b12467ae7bdb1fe35b5fa5ff 100644 (file)
@@ -6,6 +6,12 @@
 \usepackage{algorithm}
 \usepackage{algpseudocode}
 
+\algnewcommand\algorithmicinput{\textbf{Input:}}
+\algnewcommand\Input{\item[\algorithmicinput]}
+
+\algnewcommand\algorithmicoutput{\textbf{Output:}}
+\algnewcommand\Output{\item[\algorithmicoutput]}
+
 
 \title{A scalable multisplitting algorithm for solving large sparse linear systems} 
 
@@ -55,8 +61,13 @@ solvers.   However, most  of the  good preconditionners  are not  sclalable when
 thousands of cores are used.
 
 
-A completer...
-On ne peut pas parler de tout...\\
+Traditionnal iterative  solvers have  global synchronizations that  penalize the
+scalability.   Two  possible solutions  consists  either  in using  asynchronous
+iterative  methods~\cite{ref18} or  to  use multisplitting  algorithms. In  this
+paper, we will  reconsider the use of a multisplitting  method. In opposition to
+traditionnal  multisplitting  method  that  suffer  from  slow  convergence,  as
+proposed  in~\cite{huang1993krylov},  the  use  of a  minimization  process  can
+drastically improve the convergence.
 
 
 
@@ -255,7 +266,9 @@ gradient method for the normal equations CGNR~\cite{S96,refCGNR}.
 \begin{algorithm}[!t]
 \caption{A two-stage linear solver with inner iteration GMRES method}
 \begin{algorithmic}[1]
-\State Load $A_l$, $B_l$, initial guess $x^0$
+\Input $A_l$ (local sparse matrix), $B_l$ (local right-hand side), $x^0$ (initial guess)
+\Output $X_l$ (local solution vector)\vspace{0.2cm}
+\State Load $A_l$, $B_l$, $x^0$
 \State Initialize the minimizer $\tilde{x}^0=x^0$
 \For {$k=1,2,3,\ldots$ until the global convergence}
 \State Restart with $x^0=\tilde{x}^{k-1}$: \textbf{for} $j=1,2,\ldots,s$ \textbf{do}