]> AND Private Git Repository - GMRES2stage.git/commitdiff
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
12-10-2014 10
authorlilia <lilia@agora>
Sun, 12 Oct 2014 19:29:57 +0000 (21:29 +0200)
committerlilia <lilia@agora>
Sun, 12 Oct 2014 19:29:57 +0000 (21:29 +0200)
biblio.bib
paper.tex

index 0bab4d3bab8e83515450cd0ca5eed4ea73af56c2..ecc1622d49ec48977fb27982cb1d65c17c5b6833 100644 (file)
@@ -160,4 +160,49 @@ pages = {369--386},
 year = {1994},
 }
 
 year = {1994},
 }
 
+@inproceedings{Yamazaki2014,
+ author = {Yamazaki, Ichitaro and Anzt, Hartwig and Tomov, Stanimire and Hoemmen, Mark and Dongarra, Jack},
+ title = {Improving the Performance of CA-GMRES on Multicores with Multiple GPUs},
+ booktitle = {Proceedings of the 2014 IEEE 28th International Parallel and Distributed Processing Symposium},
+ series = {IPDPS '14},
+ year = {2014},
+ isbn = {978-1-4799-3800-1},
+ pages = {382--391},
+ numpages = {10},
+ url = {http://dx.doi.org/10.1109/IPDPS.2014.48},
+ doi = {10.1109/IPDPS.2014.48},
+ acmid = {2650529},
+ publisher = {IEEE Computer Society},
+ address = {Washington, DC, USA},
+} 
+
+@techreport{Hoemmen2010,
+    author    = {Hoemmen, Mark},
+    title     = {Communication-avoiding Krylov subspace methods},
+    institution = {University of California, Berkeley},
+    type     = {Ph.D. thesis}, 
+    url = {http://www.cs.berkeley.edu/~mhoemmen/pubs/thesis.pdf},
+    year      = {2010},
+}
+
+@inproceedings{Mohiyuddin2009,
+ author = {Mohiyuddin, Marghoob and Hoemmen, Mark and Demmel, James and Yelick, Katherine},
+ title = {Minimizing Communication in Sparse Matrix Solvers},
+ booktitle = {Proceedings of the Conference on High Performance Computing Networking, Storage and Analysis},
+ series = {SC '09},
+ year = {2009},
+ isbn = {978-1-60558-744-8},
+ location = {Portland, Oregon},
+ pages = {36:1--36:12},
+ articleno = {36},
+ numpages = {12},
+ url = {http://doi.acm.org/10.1145/1654059.1654096},
+ doi = {10.1145/1654059.1654096},
+ acmid = {1654096},
+ publisher = {ACM},
+ address = {New York, NY, USA},
+} 
+
+
+
 
 
index 5d63c318b29db1d7517159a388c48315a5a133d3..a7d529d4c051a24879192c951d113af3c63b69cf 100644 (file)
--- a/paper.tex
+++ b/paper.tex
@@ -607,12 +607,12 @@ GMRES is one of the most widely used Krylov iterative method for solving sparse
 
 In order to enhance the robustness of Krylov iterative solvers, some techniques have been proposed allowing the use of different preconditioners, if necessary, within the iteration instead of restarting. Those techniques may lead to considerable savings in CPU time and memory requirements. Van der Vorst in~\cite{Vorst94} has proposed variants of the GMRES algorithm in which a different preconditioner is applied in each iteration, so-called GMRESR family of nested methods. In fact, the GMRES method is effectively preconditioned with other iterative schemes (or GMRES itself), where the iterations of the GMRES method are called outer iterations while the iterations of the preconditioning process referred to as inner iterations. Saad in~\cite{Saad:1993} has proposed FGMRES which is another variant of the GMRES algorithm using a variable preconditioner. In FGMRES the search directions are preconditioned whereas in GMRESR the residuals are preconditioned. However in practice the good preconditioners are those based on direct methods, as ILU preconditioners, which are not easy to parallelize and suffer from the scalability problems on large clusters of thousands of cores.  
 
 
 In order to enhance the robustness of Krylov iterative solvers, some techniques have been proposed allowing the use of different preconditioners, if necessary, within the iteration instead of restarting. Those techniques may lead to considerable savings in CPU time and memory requirements. Van der Vorst in~\cite{Vorst94} has proposed variants of the GMRES algorithm in which a different preconditioner is applied in each iteration, so-called GMRESR family of nested methods. In fact, the GMRES method is effectively preconditioned with other iterative schemes (or GMRES itself), where the iterations of the GMRES method are called outer iterations while the iterations of the preconditioning process referred to as inner iterations. Saad in~\cite{Saad:1993} has proposed FGMRES which is another variant of the GMRES algorithm using a variable preconditioner. In FGMRES the search directions are preconditioned whereas in GMRESR the residuals are preconditioned. However in practice the good preconditioners are those based on direct methods, as ILU preconditioners, which are not easy to parallelize and suffer from the scalability problems on large clusters of thousands of cores.  
 
-Recently, communication-avoiding methods have been developed to reduce the communication overheads in Krylov subspace iterative solvers. On modern computer architectures, communications between processors are much slower than floating-point arithmetic operations on a given processor. Communication-avoiding techniques reduce either communications between processors or data movements between levels of the memory hierarchy, by reformulating the communication-bound kernels (more frequently SpMV kernels) and the orthogonalization operations within the Krylov iterative solver. Different works have studied the communication-avoiding methods for multicore processors and multi-GPU machines~\cite{} {\bf MANQUE REF}. 
+Recently, communication-avoiding methods have been developed to reduce the communication overheads in Krylov subspace iterative solvers. On modern computer architectures, communications between processors are much slower than floating-point arithmetic operations on a given processor. Communication-avoiding techniques reduce either communications between processors or data movements between levels of the memory hierarchy, by reformulating the communication-bound kernels (more frequently SpMV kernels) and the orthogonalization operations within the Krylov iterative solver. Different works have studied the communication-avoiding techniques for the GMRES method, so-called CA-GMRES, on multicore processors and multi-GPU machines~\cite{Mohiyuddin2009,Hoemmen2010,Yamazaki2014}. 
 
 Compared  to all these  works and  to all  the other  works on  Krylov iterative
 method, the originality of our work is to build a second iteration over a Krylov
 iterative method and to minimize the residuals with a least-squares method after
 
 Compared  to all these  works and  to all  the other  works on  Krylov iterative
 method, the originality of our work is to build a second iteration over a Krylov
 iterative method and to minimize the residuals with a least-squares method after
-a given number of outer iteration.
+a given number of outer iterations.
 
 %%%*********************************************************
 %%%*********************************************************
 
 %%%*********************************************************
 %%%*********************************************************