]> AND Private Git Repository - dmems12.git/blob - dmems12.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
534a689f04861dea4bff6d500add0d369c3a5f4e
[dmems12.git] / dmems12.tex
1
2 \documentclass[10pt, peerreview, compsocconf]{IEEEtran}
3 %\usepackage{latex8}
4 %\usepackage{times}
5 \usepackage[utf8]{inputenc}
6 %\usepackage[cyr]{aeguill}
7 %\usepackage{pstricks,pst-node,pst-text,pst-3d}
8 %\usepackage{babel}
9 \usepackage{amsmath}
10 \usepackage{url}
11 \usepackage{graphicx}
12 \usepackage{thumbpdf}
13 \usepackage{color}
14 \usepackage{moreverb}
15 \usepackage{commath}
16 \usepackage{subfigure}
17 %\input{psfig.sty}
18 \usepackage{fullpage}
19 \usepackage{fancybox}
20
21 \usepackage[ruled,lined,linesnumbered]{algorithm2e}
22
23 %%%%%%%%%%%%%%%%%%%%%%%%%%%% LyX specific LaTeX commands.
24 \newcommand{\noun}[1]{\textsc{#1}}
25
26 \newcommand{\tab}{\ \ \ }
27
28
29 \begin{document}
30
31
32 %% \author{\IEEEauthorblockN{Authors Name/s per 1st Affiliation (Author)}
33 %% \IEEEauthorblockA{line 1 (of Affiliation): dept. name of organization\\
34 %% line 2: name of organization, acronyms acceptable\\
35 %% line 3: City, Country\\
36 %% line 4: Email: name@xyz.com}
37 %% \and
38 %% \IEEEauthorblockN{Authors Name/s per 2nd Affiliation (Author)}
39 %% \IEEEauthorblockA{line 1 (of Affiliation): dept. name of organization\\
40 %% line 2: name of organization, acronyms acceptable\\
41 %% line 3: City, Country\\
42 %% line 4: Email: name@xyz.com}
43 %% }
44
45
46
47 \title{Using FPGAs for high speed and real time cantilever deflection estimation}
48 \author{\IEEEauthorblockN{Raphaël Couturier\IEEEauthorrefmark{1}, Stéphane Domas\IEEEauthorrefmark{1}, Gwenhaël Goavec-Merou\IEEEauthorrefmark{2} and Michel Lenczner\IEEEauthorrefmark{2}}
49 \IEEEauthorblockA{\IEEEauthorrefmark{1}FEMTO-ST, DISC, University of Franche-Comte, Belfort, France\\
50 \{raphael.couturier,stephane.domas\}@univ-fcomte.fr}
51 \IEEEauthorblockA{\IEEEauthorrefmark{2}FEMTO-ST, Time-Frequency, University of Franche-Comte, Besançon, France\\
52 \{michel.lenczner@utbm.fr,gwenhael.goavec@trabucayre.com}
53 }
54
55
56
57
58
59
60 %\maketitle
61
62 \thispagestyle{empty}
63
64 \begin{abstract}
65
66   
67
68
69 \end{abstract}
70
71 \begin{IEEEkeywords}
72 FPGA, cantilever, interferometry.
73 \end{IEEEkeywords}
74
75
76 \IEEEpeerreviewmaketitle
77
78 \section{Introduction}
79
80 Cantilevers  are  used  inside  atomic  force  microscope (AFM) which  provides  high
81 resolution images of  surfaces.  Several technics have been  used to measure the
82 displacement  of cantilevers  in litterature.   For example,  it is  possible to
83 determine  accurately  the  deflection  with different  mechanisms. 
84 In~\cite{CantiPiezzo01},   authors  used   piezoresistor  integrated   into  the
85 cantilever.   Nevertheless this  approach  suffers from  the  complexity of  the
86 microfabrication  process needed  to  implement the  sensor  in the  cantilever.
87 In~\cite{CantiCapacitive03},  authors  have  presented an  cantilever  mechanism
88 based on  capacitive sensing. This kind  of technic also  involves to instrument
89 the cantiliver which result in a complex fabrication process.
90
91 In this  paper our attention is focused  on a method based  on interferometry to
92 measure cantilevers' displacements.  In  this method cantilevers are illuminated
93 by  an optic  source. The  interferometry produces  fringes on  each cantilevers
94 which enables to  compute the cantilever displacement.  In  order to analyze the
95 fringes a  high speed camera  is used. Images  need to be processed  quickly and
96 then  a estimation  method is  required to  determine the  displacement  of each
97 cantilever.  In~\cite{AFMCSEM11},  the authors have  used an algorithm  based on
98 spline to estimate the cantilevers' positions.
99
100    The overall  process gives
101 accurate results  but all the computation  are performed on  a standard computer
102 using labview.  Consequently,  the main drawback of this  implementation is that
103 the computer is a bootleneck in the overall process. In this paper we propose to
104 use a  method based on least  square and to  implement all the computation  on a
105 FGPA.
106
107 The remainder  of the paper  is organized as  follows. Section~\ref{sec:measure}
108 describes  more precisely  the measurement  process. Our  solution based  on the
109 least  square   method  and   the  implementation  on   FPGA  is   presented  in
110 Section~\ref{sec:solus}.       Experimentations      are       described      in
111 Section~\ref{sec:results}.  Finally  a  conclusion  and  some  perspectives  are
112 presented.
113
114
115
116 %% quelques ref commentées sur les calculs basés sur l'interférométrie
117
118 \section{Measurement principles}
119 \label{sec:measure}
120
121
122
123
124
125
126
127
128 \subsection{Architecture}
129 \label{sec:archi}
130 %% description de l'architecture générale de l'acquisition d'images
131 %% avec au milieu une unité de traitement dont on ne précise pas ce
132 %% qu'elle est.
133
134 In order to develop simple,  cost effective and user-friendly cantilever arrays,
135 authors   of    ~\cite{AFMCSEM11}   have   developped   a    system   based   of
136 interferometry. In opposition to other optical based systems, using a laser beam
137 deflection scheme and  sentitive to the angular displacement  of the cantilever,
138 interferometry  is sensitive  to  the  optical path  difference  induced by  the
139 vertical displacement of the cantilever.
140
141 The system build  by authors of~\cite{AFMCSEM11} has been  developped based on a
142 Linnick     interferomter~\cite{Sinclair:05}.    It     is     illustrated    in
143 Figure~\ref{fig:AFM}.  A  laser diode  is first split  (by the splitter)  into a
144 reference beam and a sample beam  that reachs the cantilever array.  In order to
145 be  able to  move  the cantilever  array, it  is  mounted on  a translation  and
146 rotational hexapod  stage with  five degrees of  freedom. The optical  system is
147 also fixed to the stage.  Thus,  the cantilever array is centered in the optical
148 system which  can be adjusted accurately.   The beam illuminates the  array by a
149 microscope objective  and the  light reflects on  the cantilevers.  Likewise the
150 reference beam  reflects on a  movable mirror.  A  CMOS camera chip  records the
151 reference and  sample beams which  are recombined in  the beam splitter  and the
152 interferogram.   At the  beginning of  each  experiment, the  movable mirror  is
153 fitted  manually in  order to  align the  interferometric  fringes approximately
154 parallel  to the cantilevers.   When cantilevers  move due  to the  surface, the
155 bending of  cantilevers produce  movements in the  fringes that can  be detected
156 with    the    CMOS    camera.     Finally    the    fringes    need    to    be
157 analyzed. In~\cite{AFMCSEM11}, the authors used a LabView program to compute the
158 cantilevers' movements from the fringes.
159
160 \begin{figure}    
161 \begin{center}
162 \includegraphics[width=\columnwidth]{AFM}
163 \end{center}
164 \caption{schema of the AFM}
165 \label{fig:AFM}   
166 \end{figure}
167
168
169 %% image tirée des expériences.
170
171 \subsection{Cantilever deflection estimation}
172 \label{sec:deflest}
173
174 As shown on image \ref{img:img-xp}, each cantilever is covered by
175 interferometric fringes. The fringes will distort when cantilevers are
176 deflected. Estimating the deflection is done by computing this
177 distortion. For that, (ref A. Meister + M Favre) proposed a method
178 based on computing the phase of the fringes, at the base of each
179 cantilever, near the tip, and on the base of the array. They assume
180 that a linear relation binds these phases, which can be use to
181 "unwrap" the phase at the tip and to determine the deflection.\\
182
183 More precisely, segment of pixels are extracted from images taken by a
184 high-speed camera. These segments are large enough to cover several
185 interferometric fringes and are placed at the base and near the tip of
186 the cantilevers. They are called base profile and tip profile in the
187 following. Furthermore, a reference profile is taken on the base of
188 the cantilever array.
189
190 The pixels intensity $I$ (in gray level) of each profile is modelized by:
191
192 \begin{equation}
193 \label{equ:profile}
194 I(x) = ax+b+A.cos(2\pi f.x + \theta)
195 \end{equation}
196
197 where $x$ is the position of a pixel in its associated segment.
198
199 The global method consists in two main sequences. The first one aims
200 to determin the frequency $f$ of each profile with an algorithm based
201 on spline interpolation (see section \ref{algo-spline}). It also
202 computes the coefficient used for unwrapping the phase. The second one
203 is the acquisition loop, while which images are taken at regular time
204 steps. For each image, the phase $\theta$ of all profiles is computed
205 to obtain, after unwrapping, the deflection of
206 cantilevers. Originally, this computation was also done with an
207 algorithm based on spline. This article proposes a new version based
208 on a least square method.
209
210 \subsection{Design goals}
211 \label{sec:goals}
212
213 The main goal is to implement a computing unit to estimate the
214 deflection of about $10\times10$ cantilevers, faster than the stream of
215 images coming from the camera. The accuracy of results must be close
216 to the maximum precision ever obtained experimentally on the
217 architecture, i.e. 0.3nm. Finally, the latency between an image
218 entering in the unit and the deflections must be as small as possible
219 (NB: future works plan to add some control on the cantilevers).\\
220
221 If we put aside some hardware issues like the speed of the link
222 between the camera and the computation unit, the time to deserialize
223 pixels and to store them in memory, ... the phase computation is
224 obviously the bottle-neck of the whole process. For example, if we
225 consider the camera actually in use, an exposition time of 2.5ms for
226 $1024\times 1204$ pixels seems the minimum that can be reached. For
227 100 cantilevers, if we neglect the time to extract pixels, it implies
228 that computing the deflection of a single
229 cantilever should take less than 25$\mu$s, thus 12.5$\mu$s by phase.\\
230
231 In fact, this timing is a very hard constraint. Let consider a very
232 small programm that initializes twenty million of doubles in memory
233 and then does 1000000 cumulated sums on 20 contiguous values
234 (experimental profiles have about this size). On an intel Core 2 Duo
235 E6650 at 2.33GHz, this program reaches an average of 155Mflops. 
236
237 %%Itimplies that the phase computation algorithm should not take more than
238 %%$155\times 12.5 = 1937$ floating operations. For integers, it gives $3000$ operations. 
239
240 Obviously, some cache effects and optimizations on
241 huge amount of computations can drastically increase these
242 performances: peak efficiency is about 2.5Gflops for the considered
243 CPU. But this is not the case for phase computation that used only few
244 tenth of values.\\
245
246 In order to evaluate the original algorithm, we translated it in C
247 language. As said further, for 20 pixels, it does about 1550
248 operations, thus an estimated execution time of $1550/155
249 =$10$\mu$s. For a more realistic evaluation, we constructed a file of
250 1Mo containing 200 profiles of 20 pixels, equally scattered. This file
251 is equivalent to an image stored in a device file representing the
252 camera. We obtained an average of 10.5$\mu$s by profile (including I/O
253 accesses). It is under are requirements but close to the limit. In
254 case of an occasional load of the system, it could be largely
255 overtaken. A solution would be to use a real-time operating system but
256 another one to search for a more efficient algorithm.
257
258 But the main drawback is the latency of such a solution: since each
259 profile must be treated one after another, the deflection of 100
260 cantilevers takes about $200\times 10.5 = 2.1$ms, which is inadequate
261 for an efficient control. An obvious solution is to parallelize the
262 computations, for example on a GPU. Nevertheless, the cost to transfer
263 profile in GPU memory and to take back results would be prohibitive
264 compared to computation time. It is certainly more efficient to
265 pipeline the computation. For example, supposing that 200 profiles of
266 20 pixels can be pushed sequentially in the pipelined unit cadenced at
267 a 100MHz (i.e. a pixel enters in the unit each 10ns), all profiles
268 would be treated in $200\times 20\times 10.10^{-9} =$ 40$\mu$s plus
269 the latency of the pipeline. This is about 500 times faster than
270 actual results.\\
271
272 For these reasons, an FPGA as the computation unit is the best choice
273 to achieve the required performance. Nevertheless, passing from
274 a C code to a pipelined version in VHDL is not obvious at all. As
275 explained in the next section, it can even be impossible because of
276 some hardware constraints specific to FPGAs.
277
278
279 \section{Proposed solution}
280 \label{sec:solus}
281
282 Project Oscar aims  to provide a hardware and  software architecture to estimate
283 and  control the  deflection of  cantilevers. The  hardware part  consists  in a
284 high-speed camera,  linked on an embedded  board hosting FPGAs. By  the way, the
285 camera output stream can be pushed  directly into the FPGA. The software part is
286 mostly the VHDL  code that deserializes the camera  stream, extracts profile and
287 computes  the deflection. Before  focusing on  our work  to implement  the phase
288 computation, we give some general information about FPGAs and the board we use.
289
290 \subsection{FPGAs}
291
292 A field-programmable gate  array (FPGA) is an integrated  circuit designed to be
293 configured by the customer. FGPAs are composed of programmable logic components,
294 called  configurable logic blocks  (CLB). These  blocks mainly  contains look-up
295 tables  (LUT), flip/flops (F/F)  and latches,  organized in  one or  more slices
296 connected together. Each CLB can be configured to perform simple (AND, XOR, ...)
297 or complex  combinational functions.  They are interconnected  by reconfigurable
298 links.  Modern FPGAs  contain memory  elements and  multipliers which  enable to
299 simplify the  design and  to increase the  performance. Nevertheless,  all other
300 complex  operations, like  division, trigonometric  functions, $\ldots$  are not
301 available  and  must  be  done  by   configuring  a  set  of  CLBs.  Since  this
302 configuration  is not  obvious at  all, it  can be  done via  a  framework, like
303 ISE~\cite{ISE}. Such  a software  can synthetize a  design written in  a hardware
304 description language  (HDL), map it onto  CLBs, place/route them  for a specific
305 FPGA, and finally  produce a bitstream that is used to  configre the FPGA. Thus,
306 from  the developper  point of  view,  the main  difficulty is  to translate  an
307 algorithm in HDL code, taking  account FPGA resources and constraints like clock
308 signals and I/O values that drive the FPGA.
309
310 Indeed, HDL programming is very different from classic languages like
311 C. A program can be seen as a state-machine, manipulating signals that
312 evolve from state to state. By the way, HDL instructions can execute
313 concurrently. Basic logic operations are used to agregate signals to
314 produce new states and assign it to another signal. States are mainly
315 expressed as arrays of bits. Fortunaltely, libraries propose some
316 higher levels representations like signed integers, and arithmetic
317 operations.
318
319 Furthermore, even if FPGAs are cadenced more slowly than classic
320 processors, they can perform pipeline as well as parallel
321 operations. A pipeline consists in cutting a process in sequence of
322 small tasks, taking the same execution time. It accepts a new data at
323 each clock top, thus, after a known latency, it also provides a result
324 at each clock top. However, using a pipeline consumes more logics
325 since the components of a task are not reusable by another
326 one. Nevertheless it is probably the most efficient technique on
327 FPGA. Because of its architecture, it is also very easy to process
328 several data concurrently. When it is possible, the best performance
329 is reached using parallelism to handle simultaneously several
330 pipelines in order to handle multiple data streams.
331
332 \subsection{The board}
333
334 The board we use is designed by the Armadeus compagny, under the name
335 SP Vision. It consists in a development board hosting a i.MX27 ARM
336 processor (from Freescale). The board includes all classical
337 connectors: USB, Ethernet, ... A Flash memory contains a Linux kernel
338 that can be launched after booting the board via u-Boot.
339
340 The processor is directly connected to a Spartan3A FPGA (from Xilinx)
341 via its special interface called WEIM. The Spartan3A is itself
342 connected to a Spartan6 FPGA. Thus, it is possible to develop programs
343 that communicate between i.MX and Spartan6, using Spartan3 as a
344 tunnel. By default, the WEIM interface provides a clock signal at
345 100MHz that is connected to dedicated FPGA pins.
346
347 The Spartan6 is an LX100 version. It has 15822 slices, equivalent to
348 101261 logic cells. There are 268 internal block RAM of 18Kbits, and
349 180 dedicated multiply-adders (named DSP48), which is largely enough
350 for our project.
351
352 Some I/O pins of Spartan6 are connected to two $2\times 17$ headers
353 that can be used as user wants. For the project, they will be
354 connected to the interface card of the camera.
355
356 \subsection{Considered algorithms}
357
358 Two solutions have been studied to achieve phase computation. The
359 original one, proposed by A. Meister and M. Favre, is based on
360 interpolation by splines. It allows to compute frequency and
361 phase. The second one, detailed in this article, is based on a
362 classical least square method but suppose that frequency is already
363 known.
364
365 \subsubsection{Spline algorithm}
366 \label{sec:algo-spline}
367 Let consider a profile $P$, that is a segment of $M$ pixels with an
368 intensity in gray levels. Let call $I(x)$ the intensity of profile in $x
369 \in [0,M[$. 
370
371 At  first, only $M$  values of  $I$ are  known, for  $x =  0, 1,  \ldots,M-1$. A
372 normalisation  allows  to scale  known  intensities  into  $[-1,1]$. We  compute
373 splines  that fit  at best  these normalised  intensities. Splines  (SPL  in the
374 following) are  used to interpolate $N  = k\times M$ points  (typically $k=4$ is
375 sufficient), within $[0,M[$. Let call  $x^s$ the coordinates of these $N$ points
376     and $I^s$ their intensities.
377
378 In order to have the frequency, the mean line $a.x+b$ (see equation \ref{equ:profile}) of $I^s$ is
379 computed. Finding intersections of $I^s$ and this line allow to obtain
380 the period thus the frequency.
381
382 The phase is computed via the equation:
383 \begin{equation}
384 \theta = atan \left[ \frac{\sum_{i=0}^{N-1} sin(2\pi f x^s_i) \times I^s(x^s_i)}{\sum_{i=0}^{N-1} cos(2\pi f x^s_i) \times I^s(x^s_i)} \right]
385 \end{equation}
386
387 Two things can be noticed:
388 \begin{itemize}
389 \item the frequency could also be obtained using the derivates of
390   spline equations, which only implies to solve quadratic equations.
391 \item frequency of each profile is computed a single time, before the
392   acquisition loop. Thus, $sin(2\pi f x^s_i)$ and $cos(2\pi f x^s_i)$
393   could also be computed before the loop, which leads to a much faster
394   computation of $\theta$.
395 \end{itemize}
396
397 \subsubsection{Least square algorithm}
398
399 Assuming that we compute the phase during the acquisition loop,
400 equation \ref{equ:profile} has only 4 parameters: $a, b, A$, and
401 $\theta$, $f$ and $x$ being already known. Since $I$ is non-linear, a
402 least square method based on a Gauss-newton algorithm can be used to
403 determine these four parameters. Since it is an iterative process
404 ending with a convergence criterion, it is obvious that it is not
405 particularly adapted to our design goals.
406
407 Fortunatly, it is quite simple to reduce the number of parameters to
408 only $\theta$. Let $x^p$ be the coordinates of pixels in a segment of
409 size $M$. Thus, $x^p = 0, 1, \ldots, M-1$. Let $I(x^p)$ be their
410 intensity. Firstly, we "remove" the slope by computing:
411
412 \[I^{corr}(x^p) = I(x^p) - a.x^p - b\]
413
414 Since linear equation coefficients are searched, a classical least
415 square method can be used to determine $a$ and $b$:
416
417 \[a = \frac{covar(x^p,I(x^p))}{var(x^p)} \]
418
419 Assuming an overlined symbol means an average, then:
420
421 \[b = \overline{I(x^p)} - a.\overline{{x^p}}\]
422
423 Let $A$ be the amplitude of $I^{corr}$, i.e. 
424
425 \[A = \frac{max(I^{corr}) - min(I^{corr})}{2}\]
426
427 Then, the least square method to find $\theta$ is reduced to search the minimum of:
428
429 \[\sum_{i=0}^{M-1} \left[ cos(2\pi f.i + \theta) - \frac{I^{corr}(i)}{A} \right]^2\]
430
431 It is equivalent to derivate this expression and to solve the following equation:
432
433 \begin{eqnarray*}
434 2\left[ cos\theta \sum_{i=0}^{M-1} I^{corr}(i).sin(2\pi f.i) + sin\theta \sum_{i=0}^{M-1} I^{corr}(i).cos(2\pi f.i)\right] \\
435 - A\left[ cos2\theta \sum_{i=0}^{M-1} sin(4\pi f.i) + sin2\theta \sum_{i=0}^{M-1} cos(4\pi f.i)\right]   = 0
436 \end{eqnarray*}
437
438 Several points can be noticed:
439 \begin{itemize}
440 \item As in the spline method, some parts of this equation can be
441   computed before the acquisition loop. It is the case of sums that do
442   not depend on $\theta$:
443
444 \[ \sum_{i=0}^{M-1} sin(4\pi f.i), \sum_{i=0}^{M-1} cos(4\pi f.i) \] 
445
446 \item Lookup tables for $sin(2\pi f.i)$ and $cos(2\pi f.i)$ can also be
447 computed.
448
449 \item The simplest method to find the good $\theta$ is to discretize
450   $[-\pi,\pi]$ in $nb_s$ steps, and to search which step leads to the
451   result closest to zero. By the way, three other lookup tables can
452   also be computed before the loop:
453
454 \[ sin \theta, cos \theta, \]
455
456 \[ \left[ cos 2\theta \sum_{i=0}^{M-1} sin(4\pi f.i) + sin 2\theta \sum_{i=0}^{M-1} cos(4\pi f.i)\right] \]
457
458 \item This search can be very fast using a dichotomous process in $log_2(nb_s)$ 
459
460 \end{itemize}
461
462 Finally, the whole summarizes in an algorithm (called LSQ in the following) in two parts, one before and one during the acquisition loop:
463 \begin{algorithm}[htbp]
464 \caption{LSQ algorithm - before acquisition loop.}
465 \label{alg:lsq-before}
466
467    $M \leftarrow $ number of pixels of the profile\\
468    I[] $\leftarrow $ intensities of pixels\\
469    $f \leftarrow $ frequency of the profile\\
470    $s4i \leftarrow \sum_{i=0}^{M-1} sin(4\pi f.i)$\\
471    $c4i \leftarrow \sum_{i=0}^{M-1} cos(4\pi f.i)$\\
472    $nb_s \leftarrow $ number of discretization steps of $[-\pi,\pi]$\\
473
474    \For{$i=0$ to $nb_s $}{
475      $\theta  \leftarrow -\pi + 2\pi\times \frac{i}{nb_s}$\\
476      lut$_s$[$i$] $\leftarrow sin \theta$\\
477      lut$_c$[$i$] $\leftarrow cos \theta$\\
478      lut$_A$[$i$] $\leftarrow cos 2 \theta \times s4i + sin 2 \theta \times c4i$\\
479      lut$_{sfi}$[$i$] $\leftarrow sin (2\pi f.i)$\\
480      lut$_{cfi}$[$i$] $\leftarrow cos (2\pi f.i)$\\
481    }
482 \end{algorithm}
483
484 \begin{algorithm}[htbp]
485 \caption{LSQ algorithm - during acquisition loop.}
486 \label{alg:lsq-during}
487
488    $\bar{x} \leftarrow \frac{M-1}{2}$\\
489    $\bar{y} \leftarrow 0$, $x_{var} \leftarrow 0$, $xy_{covar} \leftarrow 0$\\
490    \For{$i=0$ to $M-1$}{
491      $\bar{y} \leftarrow \bar{y} + $ I[$i$]\\
492      $x_{var} \leftarrow x_{var} + (i-\bar{x})^2$\\
493    }
494    $\bar{y} \leftarrow \frac{\bar{y}}{M}$\\
495    \For{$i=0$ to $M-1$}{
496      $xy_{covar} \leftarrow xy_{covar} + (i-\bar{x}) \times (I[i]-\bar{y})$\\
497    }
498    $slope \leftarrow \frac{xy_{covar}}{x_{var}}$\\
499    $start \leftarrow y_{moy} - slope\times \bar{x}$\\
500    \For{$i=0$ to $M-1$}{
501      $I[i] \leftarrow I[i] - start - slope\times i$\\
502    }
503    
504    $I_{max} \leftarrow max_i(I[i])$, $I_{min} \leftarrow min_i(I[i])$\\
505    $amp \leftarrow \frac{I_{max}-I_{min}}{2}$\\
506
507    $Is \leftarrow 0$, $Ic \leftarrow 0$\\
508    \For{$i=0$ to $M-1$}{
509      $Is \leftarrow Is + I[i]\times $ lut$_{sfi}$[$i$]\\
510      $Ic \leftarrow Ic + I[i]\times $ lut$_{cfi}$[$i$]\\
511    }
512
513    $\delta \leftarrow \frac{nb_s}{2}$, $b_l \leftarrow 0$, $b_r \leftarrow \delta$\\
514    $v_l \leftarrow -2.I_s - amp.$lut$_A$[$b_l$]\\
515
516    \While{$\delta >= 1$}{
517
518      $v_r \leftarrow 2.[ Is.$lut$_c$[$b_r$]$ + Ic.$lut$_s$[$b_r$]$ ] - amp.$lut$_A$[$b_r$]\\
519
520      \If{$!(v_l < 0$ and $v_r >= 0)$}{
521        $v_l \leftarrow v_r$ \\
522        $b_l \leftarrow b_r$ \\
523      }
524      $\delta \leftarrow \frac{\delta}{2}$\\
525      $b_r \leftarrow b_l + \delta$\\
526    }
527    \uIf{$!(v_l < 0$ and $v_r >= 0)$}{
528      $v_l \leftarrow v_r$ \\
529      $b_l \leftarrow b_r$ \\
530      $b_r \leftarrow b_l + 1$\\
531      $v_r \leftarrow 2.[ Is.$lut$_c$[$b_r$]$ + Ic.$lut$_s$[$b_r$]$ ] - amp.$lut$_A$[$b_r$]\\
532    }
533    \Else {
534      $b_r \leftarrow b_l + 1$\\
535    }
536
537    \uIf{$ abs(v_l) < v_r$}{
538      $b_{\theta} \leftarrow b_l$ \\
539    }
540    \Else {
541      $b_{\theta} \leftarrow b_r$ \\
542    }
543    $\theta \leftarrow \pi\times \left[\frac{2.b_{ref}}{nb_s}-1\right]$\\
544
545 \end{algorithm}
546
547 \subsubsection{Comparison}
548
549 We compared the two algorithms on the base of three criteria:
550 \begin{itemize}
551 \item precision of results on a cosinus profile, distorted with noise,
552 \item number of operations,
553 \item complexity to implement an FPGA version.
554 \end{itemize}
555
556 For the first item, we produced a matlab version of each algorithm,
557 running with double precision values. The profile was generated for
558 about 34000 different values of period ($\in [3.1, 6.1]$, step = 0.1),
559 phase ($\in [-3.1 , 3.1]$, step = 0.062) and slope ($\in [-2 , 2]$,
560 step = 0.4). For LSQ, $nb_s = 1024$, which leads to a maximal error of
561 $\frac{\pi}{1024}$ on phase computation. Current A. Meister and
562 M. Favre experiments show a ratio of 50 between variation of phase and
563 the deflection of a lever. Thus, the maximal error due to
564 discretization correspond to an error of 0.15nm on the lever
565 deflection, which is smaller than the best precision they achieved,
566 i.e. 0.3nm.
567
568 For each test, we add some noise to the profile: each group of two
569 pixels has its intensity added to a random number picked in $[-N,N]$
570 (NB: it should be noticed that picking a new value for each pixel does
571 not distort enough the profile). The absolute error on the result is
572 evaluated by comparing the difference between the reference and
573 computed phase, out of $2\pi$, expressed in percents. That is: $err =
574 100\times \frac{|\theta_{ref} - \theta_{comp}|}{2\pi}$.
575
576 Table \ref{tab:algo_prec} gives the maximum and average error for the two algorithms and increasing values of $N$.
577
578 \begin{table}[ht]
579   \begin{center}
580     \begin{tabular}{|c|c|c|c|c|}
581       \hline
582   & \multicolumn{2}{c|}{SPL} & \multicolumn{2}{c|}{LSQ} \\ \cline{2-5}
583   noise & max. err. & aver. err. & max. err. & aver. err. \\ \hline
584   0 & 2.46 & 0.58 & 0.49 & 0.1 \\ \hline
585   2.5 & 2.75 & 0.62 & 1.16 & 0.22 \\ \hline
586   5 & 3.77 & 0.72 & 2.47 & 0.41 \\ \hline
587   7.5 & 4.72 & 0.86 & 3.33 & 0.62 \\ \hline
588   10 & 5.62 & 1.03 & 4.29 & 0.81 \\ \hline
589   15 & 7.96 & 1.38 & 6.35 & 1.21 \\ \hline
590   30 & 17.06 & 2.6 & 13.94 & 2.45 \\ \hline
591
592 \end{tabular}
593 \caption{Error (in \%) for cosinus profiles, with noise.}
594 \label{tab:algo_prec}
595 \end{center}
596 \end{table}
597
598 These results show that the two algorithms are very close, with a
599 slight advantage for LSQ. Furthemore, both behave very well against
600 noise. Assuming the experimental ratio of 50 (see above), an error of
601 1 percent on phase correspond to an error of 0.5nm on the lever
602 deflection, which is very close to the best precision.
603
604 Obviously, it is very hard to predict which level of noise will be
605 present in real experiments and how it will distort the
606 profiles. Nevertheless, we can see on figure \ref{fig:noise20} the
607 profile with $N=10$ that leads to the biggest error. It is a bit
608 distorted, with pikes and straight/rounded portions, and relatively
609 close to most of that come from experiments. Figure \ref{fig:noise60}
610 shows a sample of worst profile for $N=30$. It is completly distorted,
611 largely beyond the worst experimental ones. 
612
613 \begin{figure}[ht]
614 \begin{center}
615   \includegraphics[width=\columnwidth]{intens-noise20}
616 \end{center}
617 \caption{Sample of worst profile for N=10}
618 \label{fig:noise20}
619 \end{figure}
620
621 \begin{figure}[ht]
622 \begin{center}
623   \includegraphics[width=\columnwidth]{intens-noise60}
624 \end{center}
625 \caption{Sample of worst profile for N=30}
626 \label{fig:noise60}
627 \end{figure}
628
629 The second criterion is relatively easy to estimate for LSQ and harder
630 for SPL because of $atan$ operation. In both cases, it is proportional
631 to numbers of pixels $M$. For LSQ, it also depends on $nb_s$ and for
632 SPL on $N = k\times M$, i.e. the number of interpolated points. 
633
634 We assume that $M=20$, $nb_s=1024$, $k=4$, all possible parts are
635 already in lookup tables and a limited set of operations (+, -, *, /,
636 $<$, $>$) is taken account. Translating the two algorithms in C code, we
637 obtain about 430 operations for LSQ and 1550 (plus few tenth for
638 $atan$) for SPL. This result is largely in favor of LSQ. Nevertheless,
639 considering the total number of operations is not really pertinent for
640 an FPGA implementation: it mainly depends on the type of operations
641 and their
642 ordering. The final decision is thus driven by the third criterion.\\
643
644 The Spartan 6 used in our architecture has a hard constraint: it has no built-in
645 floating  point  units.   Obviously,  it  is  possible  to   use  some  existing
646 "black-boxes"  for double  precision  operations.  But they  have  a quite  long
647 latency. It is much simpler to  exclusively use integers, with a quantization of
648 all double  precision values. Obviously,  this quantization should  not decrease
649 too much the  precision of results. Furthermore, it should not  lead to a design
650 with  a huge  latency because  of operations  that could  not complete  during a
651 single or few clock cycles. Divisions  are in this case and, moreover, they need
652 a varying  number of  clock cycles  to complete. Even  multiplications can  be a
653 problem:  DSP48 take  inputs of  18  bits maximum.  For larger  multiplications,
654 several DSP must be combined, increasing the latency.
655
656 Nevertheless, the hardest constraint does not come from the FPGA characteristics
657 but from the algorithms. Their VHDL  implentation will be efficient only if they
658 can be fully (or near) pipelined. By the way, the choice is quickly done: only a
659 small  part of  SPL  can be.   Indeed,  the computation  of spline  coefficients
660 implies to solve  a tridiagonal system $A.m =  b$. Values in $A$ and  $b$ can be
661 computed from  incoming pixels intensity  but after, the back-solve  starts with
662 the  lastest  values,  which  breaks  the  pipeline.  Moreover,  SPL  relies  on
663 interpolating far more points than profile size. Thus, the end of SPL works on a
664 larger amount of data than the beginning, which also breaks the pipeline.
665
666 LSQ has  not this problem: all parts  except the dichotomial search  work on the
667 same  amount  of  data, i.e.  the  profile  size.  Furthermore, LSQ  needs  less
668 operations than SPL, implying a  smaller output latency. Consequently, it is the
669 best candidate for phase  computation. Nevertheless, obtaining a fully pipelined
670 version supposes that  operations of different parts complete  in a single clock
671 cycle. It is  the case for simulations but it completely  fails when mapping and
672 routing the design  on the Spartan6. By the way,  extra-latency is generated and
673 there must be idle times between two profiles entering into the pipeline.
674
675 %%Before obtaining the least bitstream, the crucial question is: how to
676 %%translate the C code the LSQ into VHDL ?
677
678
679 %\subsection{VHDL design paradigms}
680
681 \section{Experimental tests}
682
683 In this section we explain what  we have done yet. Until now, we could not perform
684 real experiments  since we just have  received the FGPA  board. Nevertheless, we
685 will include real experiments in the final version of this paper.
686
687 \subsection{VHDL implementation}
688
689
690
691 % - ecriture d'un code en C avec integer
692 % - calcul de la taille max en bit de chaque variable en fonction de la quantization.
693 % - tests de quantization : équilibre entre précision et contraintes FPGA
694 % - en parallèle : simulink et VHDL à la main
695
696
697 From the  LSQ algorithm,  we have written  a C  program which uses  only integer
698 values  that have  been  previously  scaled. The  quantization  of doubles  into
699 integers has  been performed  in order  to obtain a  good trade-off  between the
700 number of bits  used and the precision. We have  compared the result of
701 the LSQ version  using integers and doubles. We have observed  that the results of
702 both versions were similar.
703
704 Then we have built  two versions of VHDL codes: one directly  by hand coding and
705 the     other     with    Matlab     using     the     Simulink    HDL     coder
706 feature~\cite{HDLCoder}. Although  the approach is completely  different we have
707 obtain VHDL  codes that are quite  comparable. Each approach  has advantages and
708 drawbacks.   Roughly speaking, hand  coding provides  beautiful and  much better
709 structured code  while HDL  coder provides  code faster.  In  terms of  speed of
710 code, we  think that both  approaches will be  quite comparable with  a slightly
711 advantage for hand coding.  We hope that real experiments will confirm that.  In
712 the  LSQ algorithm, we  have replaced  all the  divisions by  multiplications by
713 constants since divisions  are performed with constants depending  of the number
714 of pixels in the profile (i.e. $M$).
715
716 \subsection{Simulation}
717
718 Currently, we have only simulated our VHDL codes with GHDL and GTKWave (two free
719 tools with linux).  Both approaches led to correct results.  At the beginning of
720 our simulations, our  pipiline could compute a new phase each  33 cycles and the
721 length of the  pipeline was equal to  95 cycles.  When we tried  to generate the
722 corresponding bitsream  with ISE environment  we had many problems  because many
723 stages required  more than the  10$n$s required by  the clock frequency.   So we
724 needed to decompose  some part of the  pipeline in order to add  some cycles and
725 simplify some parts between a clock top.
726 % ghdl + gtkwave
727 % au mieux : une phase tous les 33 cycles, latence de 95 cycles.
728 % mais routage/placement impossible.
729 \subsection{Bitstream creation}
730
731 Currently both  approaches provide synthesable  bitstreams with ISE.   We expect
732 that the  pipeline will  have a latency  of 112  cycles, i.e. 1.12$\mu$s  and it
733 could accept new profiles of pixel each 48 cycles, i.e. 480$n$s.
734
735 % pas fait mais prévision d'une sortie tous les 480ns avec une latence de 1120
736
737 \label{sec:results}
738
739
740
741
742 \section{Conclusion and perspectives}
743
744
745 \bibliographystyle{plain}
746 \bibliography{biblio}
747
748 \end{document}