]> AND Private Git Repository - JournalMultiPeriods.git/blobdiff - reponse.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
Merge branch 'master' of ssh://info.iut-bm.univ-fcomte.fr/JournalMultiPeriods
[JournalMultiPeriods.git] / reponse.tex
index dda571fa05d9da5496d54b47e69da0f56e5b895d..0edaada1ec133be0ae9fa4d989a7c34a360ccd80 100644 (file)
@@ -78,7 +78,12 @@ point, as clustering may have a significant impact on solution quality. Not only
 the size of the subregion should be discussed and analyzed, but also the
 clustering strategy.\\
 
-\textcolor{blue}{\textbf{\textsc{Answer:}      }}\\
+\textcolor{blue}{\textbf{\textsc{Answer:} In the study,  we assume that
+    the deployment  of sensors is  almost uniform over  the region.  So  we only
+    need to  fix a regular  division of the region  into subregions to  make the
+    problem tractable.   The subdivision is  made such  that the number  of hops
+    between  any pairs  of sensors  inside  a subregion  is less  than or  equal
+    to~3. In particular, we discuss the number of subregions in......}}\\
 
 
 \noindent {\bf  2.}     Page 8
@@ -92,7 +97,8 @@ two-phase approach where breach is minimized first, and then overcoverage is
 minimized would probably make more sense.
     \\
 
-\textcolor{blue}{\textbf{\textsc{Answer:}      }}\\
+\textcolor{blue}{\textbf{\textsc{Answer:} As mentioned in the paper the integer program is based on the model proposed by F. Pedraza and A. L. Medaglia and A. Garcia ("Efficient coverage algorithms for wireless sensor networks") with some modifications. Their initial approach consisted in first finding the maximum coverage obtainable from available sensors to then use this information as input to the problem of minimizing the overcoverage. But this two-steps approach is time consuming. The originality of the model is to solve both objectives in a parallel fashion. Nevertheless the weights $W_\theta$ and $W_U$ must be  properly chosen so as to guarantee that the maximum number of points are covered during each round. By choosing $W_{U}$ very
+large compared to $W_{\theta}$, the coverage of a maximum of primary points is ensured. Then for a same number of covered  points, solution with a minimal number of active sensors is preferred.  }}\\
 
 
 
@@ -103,7 +109,8 @@ the WSN. The authors are referred to "alpha-coverage to extend network lifetime
 on wireless sensor networks", Optim. Lett. 7, No. 1, 157-172 (2013) by Gentilli
 et al to enforce a constraint on the minimum coverage of each point.  \\
 
-\textcolor{blue}{\textbf{\textsc{Answer:}       }}\\
+\textcolor{blue}{\textbf{\textsc{Answer:} As previously explained, the model with the appropriate weights ensures that a maximum number of points are covered for the set of still alive sensors. The coverage is measured through the performance metrics "coverage ratio". The coverage ratio remains around 100\% as long as possible (as long as there are enough alive sensors to cover all primary points) and then decreases. The problem introduced in "alpha-coverage to extend network lifetime
+on wireless sensor networks" by Gentilli is quite different. In this problem, the coverage ratio is fixed to a predetermined value ($\alpha$) and the amount of time during which the network can satisfy a target coverage greater than $\alpha$ is maximized. }}\\
 
 
 \noindent {\bf 4.}  Page 13
@@ -113,7 +120,7 @@ Computing the average energy consumption per unit of time over the network
 lifetime would be better, as it is independent from the number and duration of
 rounds.  \\
 
-\textcolor{blue}{\textbf{\textsc{Answer :}        }}
+\textcolor{blue}{\textbf{\textsc{Answer :} Yes, you  are  right. It is possible to obtain the average energy consumption per unit of time by dividing the criterion defined in section .... by the round duration.}}
 
 
 
@@ -158,7 +165,7 @@ probably be tempered: heuristics and metaheuristics can handle very large and
 centralized problems (even if exact approaches can't), and these approaches are
 very popular in WSN.     } \\
 
-\textcolor{blue}{\textbf{\textsc{Answer:}    }}\\
+\textcolor{blue}{\textbf{\textsc{Answer:} Right, fixed    }}\\
 
 \noindent  {\ding{90}    Page 5
 "The choice of number and locations of primary points is the subject of another
@@ -172,7 +179,17 @@ All rounds seem to have the same duration. This should be stated explicitly, and
 justified (in column generation based approaches, "rounds" to not have the same
 duration).           }  \\
 
-\textcolor{blue}{\textbf{\textsc{Answer:}                }}\\
+\textcolor{blue}{\textbf{\textsc{Answer:} All rounds have the same duration. It is explicitly explained
+ in paragraph ... in section ....  This assumption leads to an integer formulation of the optimization problem. The decision variables are binary variables, $X_{t,j}$  for the activation ($X_{t,j}=1$)  or not ($X_{t,j}=0$) of the sensor $j$ during the round $t$. Column generation based approaches can be applied when the decision variables of the optimization problem are continuous. In this case the variables are the time intervals during which the sensors of a cover set (not necessarily disjoint) are active. The time intervals are not equal. Concerning the choice of round duration of equal length, it is correlated
+    with the types of applications, with the amount of initial energy in sensors
+    batteries,  and  also   with  the  duration  of  the   exchange  phase.  All
+    applications do not  have the same Quality of Service  requirements.  In our
+    case, information  exchange is executed  every hour,  but the length  of the
+    sensing period could be reduced and  adapted dynamically. On the one hand, a
+    small sensing period  would allow the network to be  more reliable but would
+    have higher  communication costs.  On the  other hand, the choice  of a long
+    duration may  cause problems  in case  of nodes  failure during  the sensing
+    period.   }}\\
 
 \noindent  {\ding{90}  Page 11 in Table 1
 $W_\Theta$ should be replaced with $W_\theta$