]> AND Private Git Repository - dmems12.git/blob - dmems12.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
7ème commit
[dmems12.git] / dmems12.tex
1
2 \documentclass[10pt, conference, compsocconf]{IEEEtran}
3 %\usepackage{latex8}
4 %\usepackage{times}
5 \usepackage[utf8]{inputenc}
6 %\usepackage[cyr]{aeguill}
7 %\usepackage{pstricks,pst-node,pst-text,pst-3d}
8 %\usepackage{babel}
9 \usepackage{amsmath}
10 \usepackage{url}
11 \usepackage{graphicx}
12 \usepackage{thumbpdf}
13 \usepackage{color}
14 \usepackage{moreverb}
15 \usepackage{commath}
16 \usepackage{subfigure}
17 %\input{psfig.sty}
18 \usepackage{fullpage}
19 \usepackage{fancybox}
20
21 \usepackage[ruled,lined,linesnumbered]{algorithm2e}
22
23 %%%%%%%%%%%%%%%%%%%%%%%%%%%% LyX specific LaTeX commands.
24 \newcommand{\noun}[1]{\textsc{#1}}
25
26 \newcommand{\tab}{\ \ \ }
27
28
29
30 \begin{document}
31
32
33 %% \author{\IEEEauthorblockN{Authors Name/s per 1st Affiliation (Author)}
34 %% \IEEEauthorblockA{line 1 (of Affiliation): dept. name of organization\\
35 %% line 2: name of organization, acronyms acceptable\\
36 %% line 3: City, Country\\
37 %% line 4: Email: name@xyz.com}
38 %% \and
39 %% \IEEEauthorblockN{Authors Name/s per 2nd Affiliation (Author)}
40 %% \IEEEauthorblockA{line 1 (of Affiliation): dept. name of organization\\
41 %% line 2: name of organization, acronyms acceptable\\
42 %% line 3: City, Country\\
43 %% line 4: Email: name@xyz.com}
44 %% }
45
46
47
48 \title{Using FPGAs for high speed and real time cantilever deflection estimation}
49 \author{\IEEEauthorblockN{Raphaël Couturier\IEEEauthorrefmark{1}, Stéphane Domas\IEEEauthorrefmark{1}, Gwenhaël Goavec-Merou\IEEEauthorrefmark{2} and Michel Lenczner\IEEEauthorrefmark{2}}
50 \IEEEauthorblockA{\IEEEauthorrefmark{1}FEMTO-ST, DISC, University of Franche-Comte, Belfort, France\\
51 \{raphael.couturier,stephane.domas\}@univ-fcomte.fr}
52 \IEEEauthorblockA{\IEEEauthorrefmark{2}FEMTO-ST, Time-Frequency, University of Franche-Comte, Besançon, France\\
53 \{michel.lenczner@utbm.fr,gwenhael.goavec@trabucayre.com}
54 }
55
56
57
58
59
60
61 \maketitle
62
63 \thispagestyle{empty}
64
65 \begin{abstract}
66
67   
68
69 {\it keywords}: FPGA, cantilever, interferometry.
70 \end{abstract}
71
72 \section{Introduction}
73
74 Cantilevers  are  used  inside  atomic  force  microscope (AFM) which  provides  high
75 resolution images of  surfaces.  Several technics have been  used to measure the
76 displacement  of cantilevers  in litterature.   For example,  it is  possible to
77 determine  accurately  the  deflection  with different  mechanisms. 
78 In~\cite{CantiPiezzo01},   authors  used   piezoresistor  integrated   into  the
79 cantilever.   Nevertheless this  approach  suffers from  the  complexity of  the
80 microfabrication  process needed  to  implement the  sensor  in the  cantilever.
81 In~\cite{CantiCapacitive03},  authors  have  presented an  cantilever  mechanism
82 based on  capacitive sensing. This kind  of technic also  involves to instrument
83 the cantiliver which result in a complex fabrication process.
84
85 In this  paper our attention is focused  on a method based  on interferometry to
86 measure cantilevers' displacements.  In  this method cantilevers are illuminated
87 by  an optic  source. The  interferometry produces  fringes on  each cantilevers
88 which enables to  compute the cantilever displacement.  In  order to analyze the
89 fringes a  high speed camera  is used. Images  need to be processed  quickly and
90 then  a estimation  method is  required to  determine the  displacement  of each
91 cantilever.  In~\cite{AFMCSEM11},  the authors have  used an algorithm  based on
92 spline to estimate the cantilevers' positions.
93
94    The overall  process gives
95 accurate results  but all the computation  are performed on  a standard computer
96 using labview.  Consequently,  the main drawback of this  implementation is that
97 the computer is a bootleneck in the overall process. In this paper we propose to
98 use a  method based on least  square and to  implement all the computation  on a
99 FGPA.
100
101 The remainder  of the paper  is organized as  follows. Section~\ref{sec:measure}
102 describes  more precisely  the measurement  process. Our  solution based  on the
103 least  square   method  and   the  implementation  on   FPGA  is   presented  in
104 Section~\ref{sec:solus}.       Experimentations      are       described      in
105 Section~\ref{sec:results}.  Finally  a  conclusion  and  some  perspectives  are
106 presented.
107
108
109
110 %% quelques ref commentées sur les calculs basés sur l'interférométrie
111
112 \section{Measurement principles}
113 \label{sec:measure}
114
115
116
117
118
119
120
121
122 \subsection{Architecture}
123 \label{sec:archi}
124 %% description de l'architecture générale de l'acquisition d'images
125 %% avec au milieu une unité de traitement dont on ne précise pas ce
126 %% qu'elle est.
127
128 In order to develop simple,  cost effective and user-friendly cantilever arrays,
129 authors   of    ~\cite{AFMCSEM11}   have   developped   a    system   based   of
130 interferometry. In opposition to other optical based systems, using a laser beam
131 deflection scheme and  sentitive to the angular displacement  of the cantilever,
132 interferometry  is sensitive  to  the  optical path  difference  induced by  the
133 vertical displacement of the cantilever.
134
135 The system build  by authors of~\cite{AFMCSEM11} has been  developped based on a
136 Linnick     interferomter~\cite{Sinclair:05}.    It     is     illustrated    in
137 Figure~\ref{fig:AFM}.  A  laser diode  is first split  (by the splitter)  into a
138 reference beam and a sample beam  that reachs the cantilever array.  In order to
139 be  able to  move  the cantilever  array, it  is  mounted on  a translation  and
140 rotational hexapod  stage with  five degrees of  freedom. The optical  system is
141 also fixed to the stage.  Thus,  the cantilever array is centered in the optical
142 system which  can be adjusted accurately.   The beam illuminates the  array by a
143 microscope objective  and the  light reflects on  the cantilevers.  Likewise the
144 reference beam  reflects on a  movable mirror.  A  CMOS camera chip  records the
145 reference and  sample beams which  are recombined in  the beam splitter  and the
146 interferogram.   At the  beginning of  each  experiment, the  movable mirror  is
147 fitted  manually in  order to  align the  interferometric  fringes approximately
148 parallel  to the cantilevers.   When cantilevers  move due  to the  surface, the
149 bending of  cantilevers produce  movements in the  fringes that can  be detected
150 with    the    CMOS    camera.     Finally    the    fringes    need    to    be
151 analyzed. In~\cite{AFMCSEM11}, the authors used a LabView program to compute the
152 cantilevers' movements from the fringes.
153
154 \begin{figure}    
155 \begin{center}
156 \includegraphics[width=\columnwidth]{AFM}
157 \end{center}
158 \caption{schema of the AFM}
159 \label{fig:AFM}   
160 \end{figure}
161
162
163 %% image tirée des expériences.
164
165 \subsection{Cantilever deflection estimation}
166 \label{sec:deflest}
167
168 As shown on image \ref{img:img-xp}, each cantilever is covered by
169 interferometric fringes. The fringes will distort when cantilevers are
170 deflected. Estimating the deflection is done by computing this
171 distortion. For that, (ref A. Meister + M Favre) proposed a method
172 based on computing the phase of the fringes, at the base of each
173 cantilever, near the tip, and on the base of the array. They assume
174 that a linear relation binds these phases, which can be use to
175 "unwrap" the phase at the tip and to determine the deflection.\\
176
177 More precisely, segment of pixels are extracted from images taken by a
178 high-speed camera. These segments are large enough to cover several
179 interferometric fringes and are placed at the base and near the tip of
180 the cantilevers. They are called base profile and tip profile in the
181 following. Furthermore, a reference profile is taken on the base of
182 the cantilever array.
183
184 The pixels intensity $I$ (in gray level) of each profile is modelized by :
185
186 \begin{equation}
187 \label{equ:profile}
188 I(x) = ax+b+A.cos(2\pi f.x + \theta)
189 \end{equation}
190
191 where $x$ is the position of a pixel in its associated segment.
192
193 The global method consists in two main sequences. The first one aims
194 to determin the frequency $f$ of each profile with an algorithm based
195 on spline interpolation (see section \ref{algo-spline}). It also
196 computes the coefficient used for unwrapping the phase. The second one
197 is the acquisition loop, while which images are taken at regular time
198 steps. For each image, the phase $\theta$ of all profiles is computed
199 to obtain, after unwrapping, the deflection of
200 cantilevers. Originally, this computation was also done with an
201 algorithm based on spline. This article proposes a new version based
202 on a least square method.
203
204 \subsection{Design goals}
205 \label{sec:goals}
206
207 The main goal is to implement a computing unit to estimate the
208 deflection of about $10\times10$ cantilevers, faster than the stream of
209 images coming from the camera. The accuracy of results must be close
210 to the maximum precision ever obtained experimentally on the
211 architecture, i.e. 0.3nm. Finally, the latency between an image
212 entering in the unit and the deflections must be as small as possible
213 (NB : future works plan to add some control on the cantilevers).\\
214
215 If we put aside some hardware issues like the speed of the link
216 between the camera and the computation unit, the time to deserialize
217 pixels and to store them in memory, ... the phase computation is
218 obviously the bottle-neck of the whole process. For example, if we
219 consider the camera actually in use, an exposition time of 2.5ms for
220 $1024\times 1204$ pixels seems the minimum that can be reached. For
221 100 cantilevers, if we neglect the time to extract pixels, it implies
222 that computing the deflection of a single
223 cantilever should take less than 25$\mu$s, thus 12.5$\mu$s by phase.\\
224
225 In fact, this timing is a very hard constraint. Let consider a very
226 small programm that initializes twenty million of doubles in memory
227 and then does 1000000 cumulated sums on 20 contiguous values
228 (experimental profiles have about this size). On an intel Core 2 Duo
229 E6650 at 2.33GHz, this program reaches an average of 155Mflops. 
230
231 %%Itimplies that the phase computation algorithm should not take more than
232 %%$155\times 12.5 = 1937$ floating operations. For integers, it gives $3000$ operations. 
233
234 Obviously, some cache effects and optimizations on
235 huge amount of computations can drastically increase these
236 performances : peak efficiency is about 2.5Gflops for the considered
237 CPU. But this is not the case for phase computation that used only few
238 tenth of values.\\
239
240 In order to evaluate the original algorithm, we translated it in C
241 language. Profiles are read from a 1Mo file, as if it was an image
242 stored in a device file representing the camera. The file contains 100
243 profiles of 21 pixels, equally scattered in the file. We obtained an
244 average of 10.5$\mu$s by profile (including I/O accesses). It is under
245 are requirements but close to the limit. In case of an occasional load
246 of the system, it could be largely overtaken. A solution would be to
247 use a real-time operating system but another one to search for a more
248 efficient algorithm.
249
250 But the main drawback is the latency of such a solution : since each
251 profile must be treated one after another, the deflection of 100
252 cantilevers takes about $200\times 10.5 = 2.1$ms, which is inadequate
253 for an efficient control. An obvious solution is to parallelize the
254 computations, for example on a GPU. Nevertheless, the cost to transfer
255 profile in GPU memory and to take back results would be prohibitive
256 compared to computation time. It is certainly more efficient to
257 pipeline the computation. For example, supposing that 200 profiles of
258 20 pixels can be pushed sequentially in the pipelined unit cadenced at
259 a 100MHz (i.e. a pixel enters in the unit each 10ns), all profiles
260 would be treated in $200\times 20\times 10.10^{-9} =$ 40$\mu$s plus
261 the latency of the pipeline. This is about 500 times faster than
262 actual results.\\
263
264 For these reasons, an FPGA as the computation unit is the best choice
265 to achieve the required performance. Nevertheless, passing from
266 a C code to a pipelined version in VHDL is not obvious at all. As
267 explained in the next section, it can even be impossible because of
268 some hardware constraints specific to FPGAs.
269
270
271 \section{Proposed solution}
272 \label{sec:solus}
273
274 Project Oscar aims to provide an hardware and software architecture to
275 estimate and control the deflection of cantilevers. The hardware part
276 consists in a high-speed camera, linked on an embedded board hosting
277 FPGAs. By the way, the camera output stream can be pushed directly
278 into the FPGA. The software part is mostly the VHDL code that
279 deserializes the camera stream, extracts profile and computes the
280 deflection. Before focusing on our work to implement the phase
281 computation, we give some general informations about FPGAs and the
282 board we use.
283
284 \subsection{FPGAs}
285
286 A field-programmable gate  array (FPGA) is an integrated  circuit designed to be
287 configured by  the customer.  A hardware  description language (HDL)  is used to
288 configure a  FPGA. FGPAs are  composed of programmable logic  components, called
289 logic blocks.  These blocks can be  configured to perform simple (AND, XOR, ...)
290 or  complex  combinational  functions.    Logic  blocks  are  interconnected  by
291 reconfigurable  links. Modern  FPGAs  contains memory  elements and  multipliers
292 which enables to simplify the design and increase the speed. As the most complex
293 operation operation on FGPAs is the  multiplier, design of FGPAs should not used
294 complex operations. For example, a divider  is not an available operation and it
295 should be programmed using simple components.
296
297 FGPAs programming  is very different  from classic processors  programming. When
298 logic block are programmed and linked  to performed an operation, they cannot be
299 reused anymore.  FPGA  are cadenced more slowly than classic  processors but they can
300 performed pipelined as  well as parallel operations. A  pipeline provides a way
301 manipulate data quickly  since at each clock top to handle  a new data. However,
302 using  a  pipeline  consomes more  logics  and  components  since they  are  not
303 reusable,  nevertheless it  is probably  the most  efficient technique  on FPGA.
304 Parallel  operations   can  be  used   in  order  to  manipulate   several  data
305 simultaneously. When  it is  possible, using  a pipeline is  a good  solution to
306 manipulate  new  data  at  each  clock  top  and  using  parallelism  to  handle
307 simultaneously several data streams.
308
309 %% parler du VHDL, synthèse et bitstream
310 \subsection{The board}
311
312 The board we use is designed by the Armadeus compagny, under the name
313 SP Vision. It consists in a development board hosting a i.MX27 ARM
314 processor (from Freescale). The board includes all classical
315 connectors : USB, Ethernet, ... A Flash memory contains a Linux kernel
316 that can be launched after booting the board via u-Boot.
317
318 The processor is directly connected to a Spartan3A FPGA (from Xilinx)
319 via its special interface called WEIM. The Spartan3A is itself
320 connected to a Spartan6 FPGA. Thus, it is possible to develop programs
321 that communicate between i.MX and Spartan6, using Spartan3 as a
322 tunnel. By default, the WEIM interface provides a clock signal at
323 100MHz that is connected to dedicated FPGA pins.
324
325 The Spartan6 is an LX100 version. It has 15822 slices, equivalent to
326 101261 logic cells. There are 268 internal block RAM of 18Kbits, and
327 180 dedicated multiply-adders (named DSP48), which is largely enough
328 for our project.
329
330 Some I/O pins of Spartan6 are connected to two $2\times 17$ headers
331 that can be used as user wants. For the project, they will be
332 connected to the interface card of the camera.
333
334 \subsection{Considered algorithms}
335
336 Two solutions have been studied to achieve phase computation. The
337 original one, proposed by A. Meister and M. Favre, is based on
338 interpolation by splines. It allows to compute frequency and
339 phase. The second one, detailed in this article, is based on a
340 classical least square method but suppose that frequency is already
341 known.
342
343 \subsubsection{Spline algorithm}
344 \label{sec:algo-spline}
345 Let consider a profile $P$, that is a segment of $M$ pixels with an
346 intensity in gray levels. Let call $I(x)$ the intensity of profile in $x
347 \in [0,M[$. 
348
349 At first, only $M$ values of $I$ are known, for $x = 0, 1,
350 \ldots,M-1$. A normalisation allows to scale known intensities into
351 $[-1,1]$. We compute splines that fit at best these normalised
352 intensities. Splines are used to interpolate $N = k\times M$ points
353 (typically $k=4$ is sufficient), within $[0,M[$. Let call $x^s$ the
354 coordinates of these $N$ points and $I^s$ their intensities.
355
356 In order to have the frequency, the mean line $a.x+b$ (see equation \ref{equ:profile}) of $I^s$ is
357 computed. Finding intersections of $I^s$ and this line allow to obtain
358 the period thus the frequency.
359
360 The phase is computed via the equation :
361 \begin{equation}
362 \theta = atan \left[ \frac{\sum_{i=0}^{N-1} sin(2\pi f x^s_i) \times I^s(x^s_i)}{\sum_{i=0}^{N-1} cos(2\pi f x^s_i) \times I^s(x^s_i)} \right]
363 \end{equation}
364
365 Two things can be noticed :
366 \begin{itemize}
367 \item the frequency could also be obtained using the derivates of
368   spline equations, which only implies to solve quadratic equations.
369 \item frequency of each profile is computed a single time, before the
370   acquisition loop. Thus, $sin(2\pi f x^s_i)$ and $cos(2\pi f x^s_i)$
371   could also be computed before the loop, which leads to a much faster
372   computation of $\theta$.
373 \end{itemize}
374
375 \subsubsection{Least square algorithm}
376
377 Assuming that we compute the phase during the acquisition loop,
378 equation \ref{equ:profile} has only 4 parameters :$a, b, A$, and
379 $\theta$, $f$ and $x$ being already known. Since $I$ is non-linear, a
380 least square method based an Gauss-newton algorithm must be used to
381 determine these four parameters. Since it is an iterative process
382 ending with a convergence criterion, it is obvious that it is not
383 particularly adapted to our design goals.
384
385 Fortunatly, it is quite simple to reduce the number of parameters to
386 only $\theta$. Let $x^p$ be the coordinates of pixels in a segment of
387 size $M$. Thus, $x^p = 0, 1, \ldots, M-1$. Let $I(x^p)$ be their
388 intensity. Firstly, we "remove" the slope by computing :
389
390 \[I^{corr}(x^p) = I(x^p) - a.x^p - b\]
391
392 Since linear equation coefficients are searched, a classical least
393 square method can be used to determine $a$ and $b$ :
394
395 \[a = \frac{covar(x^p,I(x^p))}{var(x^p)} \]
396
397 Assuming an overlined symbol means an average, then :
398
399 \[b = \overline{I(x^p)} - a.\overline{{x^p}}\]
400
401 Let $A$ be the amplitude of $I^{corr}$, i.e. 
402
403 \[A = \frac{max(I^{corr}) - min(I^{corr})}{2}\]
404
405 Then, the least square method to find $\theta$ is reduced to search the minimum of :
406
407 \[\sum_{i=0}^{M-1} \left[ cos(2\pi f.i + \theta) - \frac{I^{corr}(i)}{A} \right]^2\]
408
409 It is equivalent to derivate this expression and to solve the following equation :
410
411 \begin{eqnarray*}
412 2\left[ cos\theta \sum_{i=0}^{M-1} I^{corr}(i).sin(2\pi f.i) + sin\theta \sum_{i=0}^{M-1} I^{corr}(i).cos(2\pi f.i)\right] \\
413 - A\left[ cos2\theta \sum_{i=0}^{M-1} sin(4\pi f.i) + sin2\theta \sum_{i=0}^{M-1} cos(4\pi f.i)\right]   = 0
414 \end{eqnarray*}
415
416 Several points can be noticed :
417 \begin{itemize}
418 \item As in the spline method, some parts of this equation can be
419   computed before the acquisition loop. It is the case of sums that do
420   not depend on $\theta$ :
421
422 \[ \sum_{i=0}^{M-1} sin(4\pi f.i), \sum_{i=0}^{M-1} cos(4\pi f.i) \] 
423
424 \item Lookup tables for $sin(2\pi f.i)$ and $cos(2\pi f.i)$ can also be
425 computed.
426
427 \item The simplest method to find the good $\theta$ is to discretize
428   $[-\pi,\pi]$ in $nb_s$ steps, and to search which step leads to the
429   result closest to zero. By the way, three other lookup tables can
430   also be computed before the loop :
431
432 \[ sin \theta, cos \theta, \]
433
434 \[ \left[ cos 2\theta \sum_{i=0}^{M-1} sin(4\pi f.i) + sin 2\theta \sum_{i=0}^{M-1} cos(4\pi f.i)\right] \]
435
436 \item This search can be very fast using a dichotomous process in $log_2(nb_s)$ 
437
438 \end{itemize}
439
440 Finally, the whole summarizes in an algorithm (called LSQ in the following) in two parts, one before and one during the acquisition loop :
441 \begin{algorithm}[h]
442 \caption{LSQ algorithm - before acquisition loop.}
443 \label{alg:lsq-before}
444
445    $M \leftarrow $ number of pixels of the profile\\
446    I[] $\leftarrow $ intensities of pixels\\
447    $f \leftarrow $ frequency of the profile\\
448    $s4i \leftarrow \sum_{i=0}^{M-1} sin(4\pi f.i)$\\
449    $c4i \leftarrow \sum_{i=0}^{M-1} cos(4\pi f.i)$\\
450    $nb_s \leftarrow $ number of discretization steps of $[-\pi,\pi]$\\
451
452    \For{$i=0$ to $nb_s $}{
453      $\theta  \leftarrow -\pi + 2\pi\times \frac{i}{nb_s}$\\
454      lut$_s$[$i$] $\leftarrow sin \theta$\\
455      lut$_c$[$i$] $\leftarrow cos \theta$\\
456      lut$_A$[$i$] $\leftarrow cos 2 \theta \times s4i + sin 2 \theta \times c4i$\\
457      lut$_{sfi}$[$i$] $\leftarrow sin (2\pi f.i)$\\
458      lut$_{cfi}$[$i$] $\leftarrow cos (2\pi f.i)$\\
459    }
460 \end{algorithm}
461
462 \begin{algorithm}[ht]
463 \caption{LSQ algorithm - during acquisition loop.}
464 \label{alg:lsq-during}
465
466    $\bar{x} \leftarrow \frac{M-1}{2}$\\
467    $\bar{y} \leftarrow 0$, $x_{var} \leftarrow 0$, $xy_{covar} \leftarrow 0$\\
468    \For{$i=0$ to $M-1$}{
469      $\bar{y} \leftarrow \bar{y} + $ I[$i$]\\
470      $x_{var} \leftarrow x_{var} + (i-\bar{x})^2$\\
471    }
472    $\bar{y} \leftarrow \frac{\bar{y}}{M}$\\
473    \For{$i=0$ to $M-1$}{
474      $xy_{covar} \leftarrow xy_{covar} + (i-\bar{x}) \times (I[i]-\bar{y})$\\
475    }
476    $slope \leftarrow \frac{xy_{covar}}{x_{var}}$\\
477    $start \leftarrow y_{moy} - slope\times \bar{x}$\\
478    \For{$i=0$ to $M-1$}{
479      $I[i] \leftarrow I[i] - start - slope\times i$\\
480    }
481    
482    $I_{max} \leftarrow max_i(I[i])$, $I_{min} \leftarrow min_i(I[i])$\\
483    $amp \leftarrow \frac{I_{max}-I_{min}}{2}$\\
484
485    $Is \leftarrow 0$, $Ic \leftarrow 0$\\
486    \For{$i=0$ to $M-1$}{
487      $Is \leftarrow Is + I[i]\times $ lut$_{sfi}$[$i$]\\
488      $Ic \leftarrow Ic + I[i]\times $ lut$_{cfi}$[$i$]\\
489    }
490
491    $\delta \leftarrow \frac{nb_s}{2}$, $b_l \leftarrow 0$, $b_r \leftarrow \delta$\\
492    $v_l \leftarrow -2.I_s - amp.$lut$_A$[$b_l$]\\
493
494    \While{$\delta >= 1$}{
495
496      $v_r \leftarrow 2.[ Is.$lut$_c$[$b_r$]$ + Ic.$lut$_s$[$b_r$]$ ] - amp.$lut$_A$[$b_r$]\\
497
498      \If{$!(v_l < 0$ and $v_r >= 0)$}{
499        $v_l \leftarrow v_r$ \\
500        $b_l \leftarrow b_r$ \\
501      }
502      $\delta \leftarrow \frac{\delta}{2}$\\
503      $b_r \leftarrow b_l + \delta$\\
504    }
505    \uIf{$!(v_l < 0$ and $v_r >= 0)$}{
506      $v_l \leftarrow v_r$ \\
507      $b_l \leftarrow b_r$ \\
508      $b_r \leftarrow b_l + 1$\\
509      $v_r \leftarrow 2.[ Is.$lut$_c$[$b_r$]$ + Ic.$lut$_s$[$b_r$]$ ] - amp.$lut$_A$[$b_r$]\\
510    }
511    \Else {
512      $b_r \leftarrow b_l + 1$\\
513    }
514
515    \uIf{$ abs(v_l) < v_r$}{
516      $b_{\theta} \leftarrow b_l$ \\
517    }
518    \Else {
519      $b_{\theta} \leftarrow b_r$ \\
520    }
521    $\theta \leftarrow \pi\times \left[\frac{2.b_{ref}}{nb_s}-1\right]$\\
522
523 \end{algorithm}
524
525 \subsubsection{Comparison}
526
527 We compared the two algorithms on the base of three criterions :
528 \begin{itemize}
529 \item precision of results on a cosinus profile, distorted with noise,
530 \item number of operations,
531 \item complexity to implement an FPGA version.
532 \end{itemize}
533
534 For the first item, we produced a matlab version of each algorithm,
535 running with double precision values. The profile was generated for
536 about 34000 different values of period ($\in [3.1, 6.1]$, step = 0.1),
537 phase ($\in [-3.1 , 3.1]$, step = 0.062) and slope ($\in [-2 , 2]$,
538 step = 0.4). For LSQ, $nb_s = 1024$, which leads to a maximal error of
539 $\frac{\pi}{1024}$ on phase computation. Current A. Meister and
540 M. Favre experiments show a ratio of 50 between variation of phase and
541 the deflection of a lever. Thus, the maximal error due to
542 discretization correspond to an error of 0.15nm on the lever
543 deflection, which is smaller than the best precision they achieved,
544 i.e. 0.3nm.
545
546 For each test, we add some noise to the profile : each group of two
547 pixels has its intensity added to a random number picked in $[-N,N]$
548 (NB: it should be noticed that picking a new value for each pixel does
549 not distort enough the profile). The absolute error on the result is
550 evaluated by comparing the difference between the reference and
551 computed phase, out of $2\pi$, expressed in percents. That is : $err =
552 100\times \frac{|\theta_{ref} - \theta_{comp}|}{2\pi}$.
553
554 Table \ref{tab:algo_prec} gives the maximum and average error for the two algorithms and increasing values of $N$.
555
556 \begin{table}[ht]
557   \begin{center}
558     \begin{tabular}{|c|c|c|c|c|}
559       \hline
560   & \multicolumn{2}{c|}{SPL} & \multicolumn{2}{c|}{LSQ} \\ \cline{2-5}
561   noise & max. err. & aver. err. & max. err. & aver. err. \\ \hline
562   0 & 2.46 & 0.58 & 0.49 & 0.1 \\ \hline
563   2.5 & 2.75 & 0.62 & 1.16 & 0.22 \\ \hline
564   5 & 3.77 & 0.72 & 2.47 & 0.41 \\ \hline
565   7.5 & 4.72 & 0.86 & 3.33 & 0.62 \\ \hline
566   10 & 5.62 & 1.03 & 4.29 & 0.81 \\ \hline
567   15 & 7.96 & 1.38 & 6.35 & 1.21 \\ \hline
568   30 & 17.06 & 2.6 & 13.94 & 2.45 \\ \hline
569
570 \end{tabular}
571 \caption{Error (in \%) for cosinus profiles, with noise.}
572 \label{tab:algo_prec}
573 \end{center}
574 \end{table}
575
576 These results show that the two algorithms are very close, with a
577 slight advantage for LSQ. Furthemore, both behave very well against
578 noise. Assuming the experimental ratio of 50 (see above), an error of
579 1 percent on phase correspond to an error of 0.5nm on the lever
580 deflection, which is very close to the best precision.
581
582 Obviously, it is very hard to predict which level of noise will be
583 present in real experiments and how it will distort the
584 profiles. Nevertheless, we can see on figure \ref{fig:noise20} the
585 profile with $N=10$ that leads to the biggest error. It is a bit
586 distorted, with pikes and straight/rounded portions, and relatively
587 close to most of that come from experiments. Figure \ref{fig:noise60}
588 shows a sample of worst profile for $N=30$. It is completly distorted,
589 largely beyond the worst experimental ones. 
590
591 \begin{figure}[ht]
592 \begin{center}
593   \includegraphics[width=9cm]{intens-noise20-spl}
594 \end{center}
595 \caption{Sample of worst profile for N=10}
596 \label{fig:noise20}
597 \end{figure}
598
599 \begin{figure}[ht]
600 \begin{center}
601   \includegraphics[width=9cm]{intens-noise60-lsq}
602 \end{center}
603 \caption{Sample of worst profile for N=30}
604 \label{fig:noise60}
605 \end{figure}
606
607 The second criterion is relatively easy to estimate for LSQ and harder
608 for SPL because of $atan$ operation. In both cases, it is proportional
609 to numbers of pixels $M$. For LSQ, it also depends on $nb_s$ and for
610 SPL on $N = k\times M$, i.e. the number of interpolated points. 
611
612 We assume that $M=20$, $nb_s=1024$, $k=4$, all possible parts are
613 already in lookup tables and a limited set of operations (+, -, *, /,
614 <, >) is taken account. Translating the two algorithms in C code, we
615 obtain about 430 operations for LSQ and 1550 (plus few tenth for
616 $atan$) for SPL. This result is largely in favor of LSQ. Nevertheless,
617 considering the total number of operations is not really pertinent for
618 an FPGA implementation : it mainly depends on the type of operations
619 and their
620 ordering. The final decision is thus driven by the third criterion.\\
621
622 The Spartan 6 used in our architecture has hard constraint : it has no
623 built-in floating point units. Obviously, it is possible to use some
624 existing "black-boxes" for double precision operations. But they have
625 a quite long latency. It is much simpler to exclusively use integers,
626 with a quantization of all double precision values. Obviously, this
627 quantization should not decrease too much the precision of
628 results. Furthermore, it should not lead to a design with a huge
629 latency because of operations that could not complete during a single
630 or few clock cycles. Divisions are in this case and, moreover, they
631 need an varying number of clock cycles to complete. Even
632 multiplications can be a problem : DSP48 take inputs of 18 bits
633 maximum. For larger multiplications, several DSP must be combined,
634 increasing the latency.
635
636 Nevertheless, the hardest constraint does not come from the FPGA
637 characteristics but from the algorithms. Their VHDL implentation will
638 be efficient only if they can be fully (or near) pipelined. By the
639 way, the choice is quickly done : only a small part of SPL can be.
640 Indeed, the computation of spline coefficients implies to solve a
641 tridiagonal system $A.m = b$. Values in $A$ and $b$ can be computed
642 from incoming pixels intensity but after, the back-solve starts with
643 the lastest values, which breaks the pipeline. Moreover, SPL relies on
644 interpolating far more points than profile size. Thus, the end
645 of SPL works on a larger amount of data than the beginning, which
646 also breaks the pipeline.
647
648 LSQ has not this problem : all parts except the dichotomial search
649 work on the same amount of data, i.e. the profile size. Furthermore,
650 LSQ needs less operations than SPL, implying a smaller output
651 latency. Consequently, it is the best candidate for phase
652 computation. Nevertheless, obtaining a fully pipelined version
653 supposes that operations of different parts complete in a single clock
654 cycle. It is the case for simulations but it completely fails when
655 mapping and routing the design on the Spartan6. By the way,
656 extra-latency is generated and there must be idle times between two
657 profiles entering into the pipeline.
658
659 %%Before obtaining the least bitstream, the crucial question is : how to
660 %%translate the C code the LSQ into VHDL ?
661
662
663 %\subsection{VHDL design paradigms}
664
665 \section{Experimental tests}
666
667 \subsection{VHDL implementation}
668
669 % - ecriture d'un code en C avec integer
670 % - calcul de la taille max en bit de chaque variable en fonction de la quantization.
671 % - tests de quantization : équilibre entre précision et contraintes FPGA
672 % - en parallèle : simulink et VHDL à la main
673 %
674 \subsection{Simulation}
675
676 % ghdl + gtkwave
677 % au mieux : une phase tous les 33 cycles, latence de 95 cycles.
678 % mais routage/placement impossible.
679 \subsection{Bitstream creation}
680
681 % pas fait mais prévision d'une sortie tous les 480ns avec une latence de 1120
682
683 \label{sec:results}
684
685
686
687
688 \section{Conclusion and perspectives}
689
690
691 \bibliographystyle{plain}
692 \bibliography{biblio}
693
694 \end{document}