]> AND Private Git Repository - GMRES2stage.git/commitdiff
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
mMerge branch 'master' of ssh://bilbo.iut-bm.univ-fcomte.fr/GMRES2stage
authorlilia <lilia@agora>
Sun, 12 Oct 2014 08:07:21 +0000 (10:07 +0200)
committerlilia <lilia@agora>
Sun, 12 Oct 2014 08:07:21 +0000 (10:07 +0200)
1  2 
paper.tex

diff --combined paper.tex
index 118a2fb16992f77a0a5c9df422037a59ff2f8f01,cf61a9e82699bb021af32039e9ea1c78de8d2eea..35e831e8c8528746cfa1e0ad196680540a44942b
+++ b/paper.tex
@@@ -601,9 -601,6 +601,9 @@@ is summarized while intended perspectiv
  %%%*********************************************************
  \section{Related works}
  \label{sec:02} 
 +Krylov subspace iteration methods have increasingly become very useful and popular for solving linear equations. 
 +
 +
  %GMRES method is one of the most widely used iterative solvers chosen to deal with the sparsity and the large order of linear systems. It was initially developed by Saad \& al.~\cite{Saad86} to deal with non-symmetric and non-Hermitian problems, and indefinite symmetric problems too. The convergence of the restarted GMRES with preconditioning is faster and more stable than those of some other iterative solvers. 
  
  %The next two chapters explore a few methods which are considered currently to be among the most important iterative techniques available for solving large linear systems. These techniques are based on projection processes, both orthogonal and oblique, onto Krylov subspaces, which are subspaces spanned by vectors of the form p(A)v where p is a polynomial. In short, these techniques approximate A −1 b by p(A)b, where p is a “good” polynomial. This chapter covers methods derived from, or related to, the Arnoldi orthogonalization. The next chapter covers methods based on Lanczos biorthogonalization.
@@@ -1109,11 -1106,25 +1109,25 @@@ taken into account with TSIRM
  \end{figure}
  
  
- Concerning the  experiments some  other remarks are  interesting. We  can tested
- other examples  of PETSc  (ex29, ex45,  ex49). For all  these examples,  we also
- obtained  similar  gain between  GMRES  and TSIRM  but  those  examples are  not
- scalable  with many  cores. In  general,  we had  some problems  with more  than
- $4,096$ cores. 
+ Concerning the  experiments some  other remarks are  interesting.
+ \begin{itemize}
+ \item We  can tested other examples of  PETSc (ex29, ex45, ex49).  For all these
+   examples,  we also obtained  similar gain  between GMRES  and TSIRM  but those
+   examples are  not scalable with many  cores. In general, we  had some problems
+   with more than $4,096$ cores.
+ \item We have tested many iterative  solvers available in PETSc.  In fast, it is
+   possible to use most of them with TSIRM. From our point of view, the condition
+   to  use  a  solver inside  TSIRM  is  that  the  solver  must have  a  restart
+   feature. More  precisely, the solver must  support to be  stoped and restarted
+   without decrease its  converge. That is why  with GMRES we stop it  when it is
+   naturraly  restarted (i.e.  with  $m$ the  restart parameter).   The Conjugate
+   Gradient (CG) and all its variants do not have ``restarted'' version in PETSc,
+   so they  are not  efficient.  They  will converge with  TSIRM but  not quickly
+   because if  we compare  a normal CG  with a CG  for which  we stop it  each 16
+   iterations  for example,  the  normal CG  will  be for  more efficient.   Some
+   restarted CG  or CG variant versions exist  and may be interested  to study in
+   future works.
+ \end{itemize}
  %%%*********************************************************
  %%%*********************************************************