]> AND Private Git Repository - Krylov_multi.git/commitdiff
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
ajout
authorcouturie <couturie@extinction>
Wed, 8 Jan 2014 15:03:48 +0000 (16:03 +0100)
committercouturie <couturie@extinction>
Wed, 8 Jan 2014 15:03:48 +0000 (16:03 +0100)
biblio.bib
krylov_multi.tex

index d1f3b0090530934908f05724e1bfe8da92d4de38..55c4a932db5b6579d0abfd30c66f040e635f46ca 100644 (file)
   pages={380--391},
   year={2008},
   publisher={Elsevier}
-}
\ No newline at end of file
+}
+
+@TechReport{prace-multi,
+       author =                         {Nick Brown and J. Mark Bull and Iain Bethune},
+       title =                          {Solving Large Sparse Linear Systems using Asynchronous Multisplitting},
+       institution =  {PRACE White paper n°WP84},
+       year =                           {2013},
+}
+
index 963ce3e0fb614c59f12eabcee07b3120bf055798..40380d0f50678f162ca474373e64278fbf915124 100644 (file)
@@ -108,15 +108,15 @@ Jacobi method.
 A general framework  for studying parallel multisplitting has  been presented in
 \cite{o1985multi} by O'Leary and White. Convergence conditions are given for the
 most general case.  Many authors improved multisplitting algorithms by proposing
-for  example  a  asynchronous  version  \cite{bru1995parallel}  and  convergence
-condition  \cite{bai1999block,bahi2000asynchronous}   in  this  case   or  other
-two-stage algorithms~\cite{frommer1992h,bru1995parallel}
+for  example  an  asynchronous  version  \cite{bru1995parallel}  and  convergence
+conditions  \cite{bai1999block,bahi2000asynchronous}   in  this  case   or  other
+two-stage algorithms~\cite{frommer1992h,bru1995parallel}.
 
 In  \cite{huang1993krylov},  the  authors  proposed  a  parallel  multisplitting
 algorithm in which all the tasks except  one are devoted to solve a sub-block of
 the splitting  and to send their  local solution to  the first task which  is in
 charge to  combine the vectors at  each iteration.  These vectors  form a Krylov
-basis for  which the first tasks minimize  the error function over  the basis to
+basis for  which the first task minimizes  the error function over  the basis to
 increase the convergence, then the other tasks receive the update solution until
 convergence of the global system. 
 
@@ -127,7 +127,11 @@ of multisplitting algorithms that take benefit from multisplitting algorithms to
 solve large scale linear systems. Inner  solvers could be based on scalar direct
 method with the LU method or scalar iterative one with GMRES.
 
-
+In~\cite{prace-multi},  the  authors  have  proposed a  parallel  multisplitting
+algorithm in which large block are solved using a GMRES solver. The authors have
+performed large scale experimentations upto  32.768 cores and they conclude that
+asynchronous  multisplitting algorithm  could more  efficient  than traditionnal
+solvers on exascale architecture with hunders of thousands of cores.
 
 
 %%%%%%%%%%%%%%%%%%%%%%%%