]> AND Private Git Repository - loba.git/blobdiff - TODO
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
Update attribute "credit" for each neighbor.
[loba.git] / TODO
diff --git a/TODO b/TODO
index 3152ad98d5d06b57c2cffa912612468d1d610318..42ea439d43855a2623ecdabc2d964f3d90f6289c 100644 (file)
--- a/TODO
+++ b/TODO
@@ -1,31 +1,23 @@
-* segfault with ./loba cluster1000.xml -N64 -a fairstrategy
+* Try to optimize communications when bookkeeping.
+    Add a 'credit' counter for each neighbor.
+    Do not send more real_load than (debt - credit).
 
 
-    this is a deadlock occuring when:
-    - a process is in the finalize stage;
-    - all processes  but one are blocked on receive;
-    - the process that is still running owns all the remaining load,
-      and sends it all to the finalizing process, and then goes in
-      blocking receive.
-    The finalizing process receives the load, and blocks again,
-    waiting for a close message.
-    All processes are then blocked, and non-one is able to see that
-    there is no more load in the system!
+* Support heterogeneous platforms?
+   Not sure yet.
+   Should be doable if each process also sends its speed to its neighbors.
 
 
-* verify bookkeeping version.
+* Add options -j/-J: minimum number of iterations?
 
 
-* add several metrics
-  - flops (total, avg, stddev)
-  - message exchanges (number, volume)
+* Add options -f/-F: termination based on flops achieved?
 
 
-* add options -j/-J : minimum number of iterations ?
+* Choose a license before making the code public.
+   CeCILL-B?
 
 
-* add a variant to (not) change neighbor load information at send.
+* Translate french parts in english (README, QUESTIONS, ALGORITHMS, ...)
+   Not urgent.
 
 
-* implement loba_* algorithms (start with some trivial one)
+* Add synchronized mode?
+   No.
 
 
-* for automatic process topology,
-   -> implement some random initial distribution of load
-
-* add synchronized mode
-
-* translate README file?
+* Add a variant to (not) change neighbor load information at send?
+   No.