]> AND Private Git Repository - book_gpu.git/blobdiff - BookGPU/Chapters/chapter6/PartieSync.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
ch17
[book_gpu.git] / BookGPU / Chapters / chapter6 / PartieSync.tex
index d8d281c62d8a33318c07d763447a694e4663a9cb..ce215650b12551d15131ccdea204209de12cb70e 100755 (executable)
@@ -97,7 +97,7 @@ parallel programming schemes on a GPU cluster:
 Using CUDA\index{CUDA}, GPU kernel executions are nonblocking, and GPU/CPU data
 transfers\index{CUDA!data transfer}
 are blocking or nonblocking operations. All GPU kernel executions and CPU/GPU
 Using CUDA\index{CUDA}, GPU kernel executions are nonblocking, and GPU/CPU data
 transfers\index{CUDA!data transfer}
 are blocking or nonblocking operations. All GPU kernel executions and CPU/GPU
-data transfers are associated to "streams,"\index{CUDA!stream} and all operations on a same stream
+data transfers are associated to ``streams'',\index{CUDA!stream} and all operations on a same stream
 are serialized. When transferring data from the CPU to the GPU, then running GPU
 computations, and finally transferring results from the GPU to the CPU, there is
 a natural synchronization and serialization if these operations are achieved on
 are serialized. When transferring data from the CPU to the GPU, then running GPU
 computations, and finally transferring results from the GPU to the CPU, there is
 a natural synchronization and serialization if these operations are achieved on
@@ -489,7 +489,7 @@ working on  independent subsets of  data.  \Lst{algo:ch6p1overlapstreamsequence}
 is not so generic as \Lst{algo:ch6p1overlapseqsequence}.
 
 
 is not so generic as \Lst{algo:ch6p1overlapseqsequence}.
 
 
-\subsection{Interleaved communications-transfers-computations\\overlapping}
+\subsection{Interleaved communications-transfers-computations overlapping}
 
 Many algorithms do not support splitting data transfers and kernel calls, and
 cannot exploit CUDA streams, for example, when each GPU thread requires access to
 
 Many algorithms do not support splitting data transfers and kernel calls, and
 cannot exploit CUDA streams, for example, when each GPU thread requires access to