]> AND Private Git Repository - JournalMultiPeriods.git/blobdiff - article.tex
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
ok
[JournalMultiPeriods.git] / article.tex
index 00a0b3581dba4f8dab07e06056ad813cbc4d8a89..6c85d0c5c1477b27efce79d93c6a130f289dcfc8 100644 (file)
@@ -204,9 +204,10 @@ network. Note that  centralized algorithms have the advantage  of requiring very
 low  processing  power  from  the  sensor  nodes,  which  usually  have  limited
 processing  capabilities. The  main drawback  of this  kind of  approach  is its
 higher cost in communications, since the  node that will make the decision needs
 low  processing  power  from  the  sensor  nodes,  which  usually  have  limited
 processing  capabilities. The  main drawback  of this  kind of  approach  is its
 higher cost in communications, since the  node that will make the decision needs
-information from all the  sensor nodes. Moreover, centralized approaches usually
+information from all the  sensor nodes. \textcolor{red} {Exact or heuristics approaches are designed to provide cover sets. (Moreover, centralized approaches usually
 suffer from the scalability problem, making them less competitive as the network
 suffer from the scalability problem, making them less competitive as the network
-size increases.
+size increases.) Contrary to exact methods, heuristic methods can handle very large and centralized problems. They are proposed to reduce computational overhead such as energy consumption, delay and generally increase in
+the network lifetime. }
 
 The first algorithms proposed in the literature consider that the cover sets are
 disjoint:  a  sensor  node  appears  in  exactly  one  of  the  generated  cover
 
 The first algorithms proposed in the literature consider that the cover sets are
 disjoint:  a  sensor  node  appears  in  exactly  one  of  the  generated  cover
@@ -555,7 +556,7 @@ implemented in each subregion in a distributed way.
 As  can be seen  in Figure~\ref{fig2},  our protocol  works in  periods fashion,
 where  each is  divided  into 4  phases: Information~Exchange,  Leader~Election,
 Decision, and Sensing.  Each sensing phase may be itself divided into $T$ rounds
 As  can be seen  in Figure~\ref{fig2},  our protocol  works in  periods fashion,
 where  each is  divided  into 4  phases: Information~Exchange,  Leader~Election,
 Decision, and Sensing.  Each sensing phase may be itself divided into $T$ rounds
-and for each round a set of sensors (a cover set) is responsible for the sensing
+\textcolor{green} {of equal duration} and for each round a set of sensors (a cover set) is responsible for the sensing
 task. In  this way  a multiround optimization  process is performed  during each
 period  after  Information~Exchange  and  Leader~Election phases,  in  order  to
 produce $T$ cover sets that will take the mission of sensing for $T$ rounds.
 task. In  this way  a multiround optimization  process is performed  during each
 period  after  Information~Exchange  and  Leader~Election phases,  in  order  to
 produce $T$ cover sets that will take the mission of sensing for $T$ rounds.
@@ -578,7 +579,8 @@ running out of energy), because it works in periods.
 decision, the node will not participate to this phase, and, on the other hand,
 if the node failure occurs after the decision, the sensing  task of the network
 will be temporarily affected:  only during  the period of sensing until a new
 decision, the node will not participate to this phase, and, on the other hand,
 if the node failure occurs after the decision, the sensing  task of the network
 will be temporarily affected:  only during  the period of sensing until a new
-period starts.
+period starts. \textcolor{green}{The duration of the period  and the duration of the rounds are predefined parameters. Round duration should be long enough to hide the system control overhead and short enough to minimize the negative effects in case of node failure.}
+
 %%RC so if there are at least one failure per period, the coverage is bad...
 %%MS if we want to be reliable against many node failures we need to have an
 %% overcoverage...  
 %%RC so if there are at least one failure per period, the coverage is bad...
 %%MS if we want to be reliable against many node failures we need to have an
 %% overcoverage...