]> AND Private Git Repository - book_gpu.git/commitdiff
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
suite
authorRaphael Couturier <raphael.couturier@univ-fcomte.fr>
Mon, 8 Oct 2012 16:18:13 +0000 (18:18 +0200)
committerRaphael Couturier <raphael.couturier@univ-fcomte.fr>
Mon, 8 Oct 2012 16:18:13 +0000 (18:18 +0200)
BookGPU/Chapters/chapter2/biblio.bib
BookGPU/Chapters/chapter2/ch2.tex
BookGPU/Chapters/chapter2/ex2.cu [new file with mode: 0644]

index f52ff92db424d31dced91b71854590b19bc5483b..d577ae8808d251169aab3f0b77f7afd3bc44599e 100644 (file)
@@ -1,4 +1,4 @@
-@Book{Sanders:2010:CEI,
+@Book{ch2:Sanders:2010:CEI,
   author =     "J. Sanders and E. Kandrot",
   title =      "{CUDA} by example: an introduction to general-purpose
                 {GPU} programming",
@@ -7,4 +7,19 @@
   pages =      "xix + 290",
   year =       "2010",
   LCCN =       "QA76.76.A65",
-}
\ No newline at end of file
+}
+
+
+@Article{ch2:journals/ijhpca/Dongarra02,
+  title =      "Basic Linear Algebra Subprograms Technical (Blast)
+                Forum Standard (1)",
+  author =     "Jack Dongarra",
+  journal =    "IJHPCA",
+  year =       "2002",
+  number =     "1",
+  volume =     "16",
+  bibdate =    "2009-11-11",
+  bibsource =  "DBLP,
+                http://dblp.uni-trier.de/db/journals/ijhpca/ijhpca16.html#Dongarra02",
+  pages =      "1--111",
+}
index 804afc2933c1b9b924babaf32a2fff7c06d3ee41..a9e9a870ba5357a716553856f4f93383c4c60f9a 100755 (executable)
@@ -1,6 +1,4 @@
-\chapterauthor{Author Name1}{Affiliation text1}
-\chapterauthor{Author Name2}{Affiliation text2}
-
+\chapterauthor{Raphaël Couturier}{Femto-ST Institute, University of Franche-Comte}
 
 \chapter{Introduction to CUDA}
 \label{chapter2}
@@ -9,7 +7,8 @@
 In this chapter  we give some simple examples on CUDA  programming.  The goal is
 not to provide an exhaustive presentation of all the functionalities of CUDA but
 rather giving some basic elements. Of  course, readers that do not know CUDA are
-invited to read other books that are specialized on CUDA programming (for example: \cite{Sanders:2010:CEI}).
+invited  to read  other  books that  are  specialized on  CUDA programming  (for
+example: \cite{ch2:Sanders:2010:CEI}).
 
 
 \section{First example}
@@ -17,7 +16,8 @@ invited to read other books that are specialized on CUDA programming (for exampl
 This first example is  intented to show how to build a  very simple example with
 CUDA.   The goal  of this  example is  to performed  the sum  of two  arrays and
 putting the  result into a  third array.   A cuda program  consists in a  C code
-which calls CUDA kernels that are executed on a GPU. The listing of this code is in Listing~\ref{ch2:lst:ex1}
+which calls CUDA kernels that are executed on a GPU. The listing of this code is
+in Listing~\ref{ch2:lst:ex1}.
 
 
 As GPUs have  their own memory, the first step consists  in allocating memory on
@@ -47,11 +47,12 @@ is possible  to perform the addition of  all elements of the  arrays in parallel
 (if  the  number   of  blocks  and  threads  per   blocks  is  sufficient).   In
 Listing\ref{ch2:lst:ex1}     at    the     beginning,    a     simple    kernel,
 called \texttt{addition} is defined to  compute in parallel the summation of the
-two arrays. With CUDA, a  kernel starts with the keyword \texttt{\_\_global\_\_} \index{CUDA~keywords!\_\_shared\_\_}
-which  indicates that this  kernel can  be called  from the  C code.   The first
-instruction in this  kernel is used to compute  the variable \texttt{tid} which
-represents the thread index.   This thread index\index{thread index} is computed
-according  to  the  values  of  the  block  index (it  is  a  variable  of  CUDA
+two     arrays.     With     CUDA,      a     kernel     starts     with     the
+keyword   \texttt{\_\_global\_\_}   \index{CUDA~keywords!\_\_shared\_\_}   which
+indicates that this kernel can be called from the C code.  The first instruction
+in this kernel is used to compute the variable \texttt{tid} which represents the
+thread index.   This thread index\index{thread  index} is computed  according to
+the   values    of   the   block   index    (it   is   a    variable   of   CUDA
 called  \texttt{blockIdx}\index{CUDA~keywords!blockIdx}). Blocks of  threads can
 be decomposed into  1 dimension, 2 dimensions or 3  dimensions. According to the
 dimension of data  manipulated, the appropriate dimension can  be useful. In our
@@ -65,5 +66,42 @@ block.
 
 \lstinputlisting[label=ch2:lst:ex1,caption=A simple example]{Chapters/chapter2/ex1.cu}
 
+\section{Second example: using CUBLAS}
+
+The Basic Linear Algebra Subprograms  (BLAS) allows programmer to use performant
+routines that are often used. Those routines are heavily used in many scientific
+applications  and  are  very   optimzed  for  vector  operations,  matrix-vector
+operations                           and                           matrix-matrix
+operations~\cite{ch2:journals/ijhpca/Dongarra02}. Some of those operations seems
+to be  easy to  implement with CUDA.   Nevertheless, as  soon as a  reduction is
+needed, implementing an efficient reduction routines with CUDA is far from being
+simple.
+
+In this second example, we consider that  we have two vectors $A$ and $B$. First
+of all we want to compute the sum  of both vectors in a vector $C$. Then we want
+to compute the  scalar product between $1/C$ and $1/A$. This  is just an example
+which has not direct interest except to show how to program it with CUDA.
+
+Listing~\ref{ch2:lst:ex2} shows this example with CUDA. The first kernel for the
+addition  of two  arrays  is exactly  the same  that  the one  described in  the
+previous example.
+
+The  kernel  to  compute the  inverse  of  the  elements  of  an array  is  very
+simple. For  each thread index,  the inverse of  the array replaces  the initial
+array.
+
+In the main function,  the beginning is very similar to the  one in the previous
+example.   First the  number of  elements is  asked to  the user.   Then  a call
+to \texttt{cublasCreate} allows to initialize  the cublas library. It creates an
+handle. Then all the arrays are allocated  in the host and the device, as in the
+previous  example.  Both  arrays  $A$ and  $B$  are initialized.   Then the  CPU
+computation is performed  and the time for this CPU  computation is measured. In
+order to  compute the same result  on the GPU, first  of all, data  from the CPU
+need to be  copied into the memory of  the GPU. For that, it is  possible to use
+cublas function \texttt{cublasSetVector}.
+
+\lstinputlisting[label=ch2:lst:ex2,caption=A simple example]{Chapters/chapter2/ex2.cu}
+
+
 \putbib[Chapters/chapter2/biblio]
 
diff --git a/BookGPU/Chapters/chapter2/ex2.cu b/BookGPU/Chapters/chapter2/ex2.cu
new file mode 100644 (file)
index 0000000..762654c
--- /dev/null
@@ -0,0 +1,109 @@
+#include <stdlib.h>
+#include <stdio.h>
+#include <string.h>
+#include <math.h>
+#include <assert.h>
+#include "cutil_inline.h"
+#include <cublas_v2.h>
+
+
+const int nbThreadsPerBloc=256;
+
+__global__ 
+void addition(int size, double *d_C, double *d_A, double *d_B) {
+       int tid = blockIdx.x * blockDim.x + threadIdx.x;
+       if(tid<size) {
+               d_C[tid]=d_A[tid]+d_B[tid];
+       }
+}
+
+__global__ 
+void inverse(int size, double *d_x) {
+       int tid = blockIdx.x * blockDim.x + threadIdx.x;
+       if(tid<size) {
+               d_x[tid]=1./d_x[tid];
+       }
+}
+
+
+int main( int argc, char** argv) 
+{
+
+       if(argc!=2) { 
+               printf("usage: ex2 nb_components\n");
+               exit(0);
+       }
+
+       int size=atoi(argv[1]);
+
+       cublasStatus_t stat;
+       cublasHandle_t handle; 
+       stat=cublasCreate(&handle);
+
+
+       int i;
+       double *h_arrayA=(double*)malloc(size*sizeof(double));
+       double *h_arrayB=(double*)malloc(size*sizeof(double));
+       double *h_arrayC=(double*)malloc(size*sizeof(double));
+       double *h_arrayCgpu=(double*)malloc(size*sizeof(double));
+       double *d_arrayA, *d_arrayB, *d_arrayC;
+
+
+       cudaMalloc((void**)&d_arrayA,size*sizeof(double));
+       cudaMalloc((void**)&d_arrayB,size*sizeof(double));
+       cudaMalloc((void**)&d_arrayC,size*sizeof(double));
+
+       for(i=0;i<size;i++) {
+               h_arrayA[i]=i+1;
+               h_arrayB[i]=2*(i+1);
+       }
+
+
+       unsigned int timer_cpu = 0;
+       cutilCheckError(cutCreateTimer(&timer_cpu));
+  cutilCheckError(cutStartTimer(timer_cpu));
+       double dot=0;
+       for(i=0;i<size;i++) {
+               h_arrayC[i]=h_arrayA[i]+h_arrayB[i];
+               dot+=(1./h_arrayC[i])*(1./h_arrayA[i]);
+       }
+       cutilCheckError(cutStopTimer(timer_cpu));
+       printf("CPU processing time : %f (ms) \n", cutGetTimerValue(timer_cpu));
+       cutDeleteTimer(timer_cpu);
+
+
+       unsigned int timer_gpu = 0;
+       cutilCheckError(cutCreateTimer(&timer_gpu));
+  cutilCheckError(cutStartTimer(timer_gpu));
+       stat = cublasSetVector(size,sizeof(double),h_arrayA,1,d_arrayA,1);
+       stat = cublasSetVector(size,sizeof(double),h_arrayB,1,d_arrayB,1);
+       int nbBlocs=(size+nbThreadsPerBloc-1)/nbThreadsPerBloc;
+
+       addition<<<nbBlocs,nbThreadsPerBloc>>>(size,d_arrayC,d_arrayA,d_arrayB);
+       inverse<<<nbBlocs,nbThreadsPerBloc>>>(size,d_arrayC);
+       inverse<<<nbBlocs,nbThreadsPerBloc>>>(size,d_arrayA);
+       double dot_gpu=0;
+       stat = cublasDdot(handle,size,d_arrayC,1,d_arrayA,1,&dot_gpu);
+
+
+       cutilCheckError(cutStopTimer(timer_gpu));
+       printf("GPU processing time : %f (ms) \n", cutGetTimerValue(timer_gpu));
+       cutDeleteTimer(timer_gpu);
+       
+       cublasGetVector(size,sizeof(double),d_arrayC,1,h_arrayCgpu,1);
+
+       printf("cpu dot %e --- gpu dot %e\n",dot,dot_gpu);
+
+
+       cudaFree(d_arrayA);
+       cudaFree(d_arrayB);
+       cudaFree(d_arrayC);
+       free(h_arrayA);
+       free(h_arrayB);
+       free(h_arrayC);
+       free(h_arrayCgpu);
+
+       cublasDestroy(handle);
+       return 0;
+
+}