]> AND Private Git Repository - book_gpu.git/blobdiff - BookGPU/Chapters/chapter6/Intro.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
ch17
[book_gpu.git] / BookGPU / Chapters / chapter6 / Intro.tex
index 5a8d0e768c3b6fb45584dab401c59c4757828448..77b314db55040b2130c6b4c2fa8957d3cec304d2 100644 (file)
@@ -1,28 +1,28 @@
 \section{Introduction}\label{ch6:intro}
 
-This  chapter  proposes to  draw  several  development  methodologies to  obtain
+This chapter proposes  to draw upon several development  methodologies to obtain
 efficient codes  in classical scientific applications.   Those methodologies are
-based on the  feedback from several research works  involving GPUs, either alone
-in  a  single   machine  or  in  a  cluster  of   machines.   Indeed,  our  past
-collaborations  with industries  have  allowed us  to  point out  that in  their
-economical  context,  they   can  adopt  a  parallel  technology   only  if  its
-implementation  and  maintenance costs  are  small  according  to the  potential
-benefits (performance,  accuracy,...). So, in such contexts,  GPU programming is
-still  regarded  with   some  distance  according  to  its   specific  field  of
-applicability (SIMD/SIMT model) and  its still higher programming complexity and
-maintenance. In the academic domain, things  are a bit different but studies for
-efficiently  integrating GPU  computations in  multi-core clusters  with maximal
-overlapping of  computations with communications and/or  other computations, are
-still rare.
+based on  the feedback from several  research works involving GPUs,  either in a
+single machine  or in  a cluster of  machines.  Indeed, our  past collaborations
+with industries have  allowed us to point out that  in their economical context,
+they can adopt a parallel  technology only if its implementation and maintenance
+costs   are   small  compared   with   the   potential  benefits   (performance,
+accuracy, etc.). So,  in such  contexts, GPU programming  is still  regarded with
+some  distance due  to its  specific  field of  applicability (SIMD/SIMT  model:
+Single  Instruction  Multiple  Data/Thread)  and its  still  higher  programming
+complexity and maintenance.  In the academic domain, things are a bit different,
+but studies  for efficiently integrating GPU computations  in multicore clusters
+with  maximal  overlapping  of  computations with  communications  and/or  other
+computations are still rare.
 
-For these  reasons, the major  aim of  that chapter is  to propose as  simple as
-possible  general  programming patterns  that  can  be  followed or  adapted  in
+For  these  reasons,  the major  aim  of  that  chapter  is to  propose  general
+programming patterns, as simple as possible,  that can be followed or adapted in
 practical implementations of parallel scientific applications.
 % Also, according to  our experience in industrial collaborations,  we propose a
 % small  prospect  analysis about  the  perenity  of  such accelerators  in  the
 % middle/long term.
-Also, we propose in a third part, a prospect analysis together with a particular
-programming tool that is intended to ease multi-core GPU cluster programming.
+In  addition,  we  propose  a  prospect  analysis  together  with  a  particular
+programming tool that is intended to ease multicore GPU cluster programming.
 
 
 %%% Local Variables: