]> AND Private Git Repository - Krylov_multi.git/blob - krylov_multi.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
new
[Krylov_multi.git] / krylov_multi.tex
1 \documentclass{article}
2 \usepackage[utf8]{inputenc}
3 \usepackage{amsfonts,amssymb}
4 \usepackage{amsmath}
5 \usepackage{graphicx}
6
7 \title{A scalable multisplitting algorithm for solving large sparse linear systems} 
8
9
10
11 \begin{document}
12 \author{Raphaël Couturier \and Lilia Ziane Khodja}
13
14 \maketitle
15
16
17 %%%%%%%%%%%%%%%%%%%%%%%%
18 %%%%%%%%%%%%%%%%%%%%%%%%
19
20
21 \begin{abstract}
22 In  this  paper we  revist  the  krylov  multisplitting algorithm  presented  in
23 \cite{huang1993krylov}  which  uses  a  scalar  method to  minimize  the  krylov
24 iterations computed by a multisplitting algorithm. Our new algorithm is based on
25 a  parallel multisplitting  algorithm  with few  blocks  of large  size using  a
26 parallel GMRES method inside each block and on a parallel krylov minimization in
27 order to improve the convergence. Some large scale experiments with a 3D Poisson
28 problem  are presented.   They  show  the obtained  improvements  compared to  a
29 classical GMRES both in terms of number of iterations and execution times.
30 \end{abstract}
31
32
33 %%%%%%%%%%%%%%%%%%%%%%%%
34 %%%%%%%%%%%%%%%%%%%%%%%%
35
36
37 \section{Introduction}
38
39 Iterative methods are used to solve  large sparse linear systems of equations of
40 the form  $Ax=b$ because they are  easier to parallelize than  direct ones. Many
41 iterative  methods have  been proposed  and  adapted by  many researchers.   For
42 example, the GMRES method and the  Conjugate Gradient method are very well known
43 and  used by  many researchers  ~\cite{S96}. Both  the method  are based  on the
44 Krylov subspace which consists in forming  a basis of the sequence of successive
45 matrix powers times the initial residual.
46
47 When  solving large  linear systems  with  many cores,  iterative methods  often
48 suffer  from scalability problems.   This is  due to  their need  for collective
49 communications  to  perform  matrix-vector  products and  reduction  operations.
50 Preconditionners can be  used in order to increase  the convergence of iterative
51 solvers.   However, most  of the  good preconditionners  are not  sclalable when
52 thousands of cores are used.
53
54
55 A completer...
56 On ne peut pas parler de tout...\\
57
58
59
60
61 %%%%%%%%%%%%%%%%%%%%%%%
62 %% BEGIN
63 %%%%%%%%%%%%%%%%%%%%%%%
64 The key idea  of the multisplitting method for  solving a large system
65 of linear equations $Ax=b$ consists  in partitioning the matrix $A$ in
66 $L$ several ways
67 \begin{equation}
68 A = M_l - N_l,~l\in\{1,\ldots,L\},
69 \label{eq01}
70 \end{equation}
71 where $M_l$ are nonsingular matrices. Then the linear system is solved
72 by iteration based on the multisplittings as follows
73 \begin{equation}
74 x^{k+1}=\displaystyle\sum^L_{l=1} E_l M^{-1}_l (N_l x^k + b),~k=1,2,3,\ldots
75 \label{eq02}
76 \end{equation}
77 where $E_l$ are non-negative and diagonal weighting matrices such that
78 $\sum^L_{l=1}E_l=I$ ($I$ is an identity matrix).  Thus the convergence
79 of such a method is dependent on the condition
80 \begin{equation}
81 \rho(\displaystyle\sum^L_{l=1}E_l M^{-1}_l N_l)<1.
82 \label{eq03}
83 \end{equation}
84
85 The advantage of  the multisplitting method is that  at each iteration
86 $k$ there are $L$ different linear sub-systems
87 \begin{equation}
88 v_l^k=M^{-1}_l N_l x_l^{k-1} + M^{-1}_l b,~l\in\{1,\ldots,L\},
89 \label{eq04}
90 \end{equation}
91 to be solved  independently by a direct or  an iterative method, where
92 $v_l^k$  is the solution  of the  local sub-system.   A multisplitting
93 method  using   an  iterative  method  for  solving   the  $L$  linear
94 sub-systems is  called an inner-outer iterative method  or a two-stage
95 method.   The   results    $v_l^k$   obtained   from   the   different
96 splittings~(\ref{eq04}) are combined to  compute the solution $x^k$ of
97 the linear system by using the diagonal weighting matrices
98 \begin{equation}
99 x^k = \displaystyle\sum^L_{l=1} E_l v_l^k,
100 \label{eq05}
101 \end{equation}    
102 In the case where the diagonal weighting matrices $E_l$ have only zero
103 and   one   factors  (i.e.   $v_l^k$   are   disjoint  vectors),   the
104 multisplitting method is non-overlapping  and corresponds to the block
105 Jacobi method.
106 %%%%%%%%%%%%%%%%%%%%%%%
107 %% END
108 %%%%%%%%%%%%%%%%%%%%%%%
109
110 \section{Related works}
111
112
113 A general framework  for studying parallel multisplitting has  been presented in
114 \cite{o1985multi} by O'Leary and White. Convergence conditions are given for the
115 most general case.  Many authors improved multisplitting algorithms by proposing
116 for  example  an  asynchronous  version  \cite{bru1995parallel}  and  convergence
117 conditions  \cite{bai1999block,bahi2000asynchronous}   in  this  case   or  other
118 two-stage algorithms~\cite{frommer1992h,bru1995parallel}.
119
120 In  \cite{huang1993krylov},  the  authors  proposed  a  parallel  multisplitting
121 algorithm in which all the tasks except  one are devoted to solve a sub-block of
122 the splitting  and to send their  local solution to  the first task which  is in
123 charge to  combine the vectors at  each iteration.  These vectors  form a Krylov
124 basis for  which the first task minimizes  the error function over  the basis to
125 increase the convergence, then the other tasks receive the update solution until
126 convergence of the global system. 
127
128
129
130 In \cite{couturier2008gremlins}, the  authors proposed practical implementations
131 of multisplitting algorithms that take benefit from multisplitting algorithms to
132 solve large scale linear systems. Inner  solvers could be based on scalar direct
133 method with the LU method or scalar iterative one with GMRES.
134
135 In~\cite{prace-multi},  the  authors  have  proposed a  parallel  multisplitting
136 algorithm in which large block are solved using a GMRES solver. The authors have
137 performed large scale experimentations upto  32.768 cores and they conclude that
138 asynchronous  multisplitting algorithm  could more  efficient  than traditionnal
139 solvers on exascale architecture with hunders of thousands of cores.
140
141
142 %%%%%%%%%%%%%%%%%%%%%%%%
143 %%%%%%%%%%%%%%%%%%%%%%%%
144
145
146 \section{A two-stage method with a minimization}
147 Let $Ax=b$ be a given sparse and large linear system of $n$ equations
148 to solve in parallel on $L$ clusters, physically adjacent or geographically
149 distant, where $A\in\mathbb{R}^{n\times n}$ is a square and nonsingular
150 matrix, $x\in\mathbb{R}^{n}$ is the solution vector and $b\in\mathbb{R}^{n}$
151 is the right-hand side vector. The multisplitting of this linear system 
152 is defined as follows:
153 \begin{equation}
154 \left\{
155 \begin{array}{lll}
156 A & = & [A_{1}, \ldots, A_{L}]\\
157 x & = & [X_{1}, \ldots, X_{L}]\\
158 b & = & [B_{1}, \ldots, B_{L}]
159 \end{array}
160 \right.
161 \label{sec03:eq01}
162 \end{equation}  
163 where for all $l\in\{1,\ldots,L\}$ $A_l$ is a rectangular block of size $n_l\times n$
164 and $X_l$ and $B_l$ are sub-vectors of size $n_l$, such that $\sum_ln_l=n$. In this
165 case, we use a row-by-row splitting without overlapping in such a way that successive
166 rows of the sparse matrix $A$ and both vectors $x$ and $b$ are assigned to one cluster.
167 So, the multisplitting format of the linear system is defined as follows:
168 \begin{equation}
169 \forall l\in\{1,\ldots,L\} \mbox{,~} \displaystyle\sum_{i=1}^{l-1}A_{li}X_i + A_{ll}X_l + \displaystyle\sum_{i=l+1}^{L}A_{li}X_i = B_l, 
170 \label{sec03:eq02}
171 \end{equation} 
172 where $A_{li}$ is a block of size $n_l\times n_i$ of the rectangular matrix $A_l$, $X_i\neq X_l$
173 is a sub-vector of size $n_i$ of the solution vector $x$ and $\sum_{i<l}n_i+\sum_{i>l}n_i+n_l=n$,
174 for all $i\in\{1,\ldots,l-1,l+1,\ldots,L\}$. 
175
176 The multisplitting method proceeds by iteration for solving the linear system in such a
177 way each sub-system
178 \begin{equation}
179 \left\{
180 \begin{array}{l}
181 A_{ll}X_l = Y_l \mbox{,~such that}\\
182 Y_l = B_l - \displaystyle\sum_{i=1,i\neq l}^{L}A_{li}X_i,
183 \end{array}
184 \right.
185 \label{sec03:eq03}
186 \end{equation}
187 is solved independently by a cluster of processors and communication are required to
188 update the right-hand side vectors $Y_l$, such that the vectors $X_i$ represent the data
189 dependencies between the clusters. In this case, the parallel GMRES method is used
190 as an inner iteration method for solving the linear sub-systems~(\ref{sec03:eq03}).  
191
192
193
194
195
196
197
198
199 %%%%%%%%%%%%%%%%%%%%%%%%
200 %%%%%%%%%%%%%%%%%%%%%%%%
201
202 \bibliographystyle{plain}
203 \bibliography{biblio}
204
205 \end{document}