X-Git-Url: https://bilbo.iut-bm.univ-fcomte.fr/and/gitweb/loba.git/blobdiff_plain/9a61d03554f90cad51c1e367f20cbf64f90bd75a..c0eaeb249c8fd246f3a56f18f61e417c277f43c1:/BUGS?ds=sidebyside diff --git a/BUGS b/BUGS index 5cc1040..de42340 100644 --- a/BUGS +++ b/BUGS @@ -1,17 +1,91 @@ ======================================================================== -Il semblerait qu'il y ait un bug dans SG 3.5, et qu'on ne puisse pas -utiliser MSG_comm_waitany() pour l'émetteur *et* le récepteur sans -risquer d'interblocage. +-- Wed, Feb 29 16:31:56 2012 +0100 -Le problème devrait être contourné correctement depuis le commit -cd6b253 Use MSG_comm_waitall for communicator::flush(true). +Les fonctions MSG_get_host{number,table} n'existent plus dans les +dernières versions de SimGrid. Utiliser MSG_hosts_as_dynar à la place. + +-- Tue, 06 Mar 2012 17:02:02 +0100 + +Le patch suivant corrige le problème : +--- a/hostdata.cpp ++++ b/hostdata.cpp +@@ -19,8 +19,9 @@ void hostdata::create() + using std::placeholders::_1; + using std::placeholders::_2; + +- int nhosts = MSG_get_host_number(); +- m_host_t* host_list = MSG_get_host_table(); ++ xbt_dynar_t host_dynar = MSG_hosts_as_dynar(); ++ int nhosts = xbt_dynar_length(host_dynar); ++ m_host_t* host_list = static_cast(xbt_dynar_to_array(host_dynar)); + // only sort hosts for automatically created deployment + if (opt::auto_depl::enabled) + std::sort(host_list, host_list + nhosts, + +======================================================================== +-- Wed, Feb 29 16:16:45 2012 +0100 + +Les exécutions parallèles donnent des résultats différents. +Pourquoi ? ======================================================================== -Avec SG 3.5, les communications doivent être détruites dès que -possible avec MSG_comm_destroy(). Si ce n'est pas fait, la simulation -peut être extrêmement ralentie. +##### MOSTLY RESOLVED BUGS COME AFTER THIS ############################# +======================================================================== +-- Mon, Feb 27 13:26:08 2012 +0100 + +Les variables globales process::total_load_* ne sont pas protégées +contre les accès concurrents. Il n'est donc pas possible actuellement +d'exécuter les simulations en parallèle (--cfg=contexts/nthreads). + +-- Wed, Feb 29 15:54:31 2012 +0100 + +Corrigé en partie. Il reste quelques "fixme: get locked?" à régler +(ou pas). + +======================================================================== +-- Fri, May 20 17:01:33 2011 +0200 + +Il faut réviser l'utilisation du mutex entre le thread d'équilibrage +et le thread de calcul. Il semble gardé beaucoup trop longtemps. + +-- Tue, May 24 14:55:59 2011 +0200 + +Bon, une partie du problème est rectifiée par le commit +48de954 Stop locking the mutex on data_receive. + +Pour le reste, je pense maintenant que ça ne gêne pas, au moins dans +le simulateur. Pour faire bien, il faudrait plus séparer les deux +threads d'équilibrage et de calcul, et faire en sorte que chacun garde +un cache des données globales partagées. Il suffirait alors de +synchroniser ces caches à chaque itération. + +Les données partagées sont essentiellement les données des voisins : +load, to_send et debt. + +======================================================================== +-- Tue, Apr 19 17:48:39 2011 +0200 + +Valgrind détecte une fuite de mémoire liée à un appel à backtrace. -Le problème devrait être contourné correctement depuis le commit -404a8d5 Do not call flush automatically in communcator::send... +Le problème semble être indépendant de SimGrid et peut être reproduit +avec le code suivant (NB: l'équivalent, compilé avec gcc ne génère pas +d'erreur). +,---- +| #include +| #include +| int main() +| { +| void *buffer[64]; +| int size = -1; +| size = backtrace(buffer, sizeof buffer / sizeof buffer[0]); +| std::cerr << "backtrace() returned " << size << "\n"; +| } +`---- +==532== HEAP SUMMARY: +==532== in use at exit: 56 bytes in 1 blocks +==532== ... +==532== LEAK SUMMARY: +==532== ... +==532== still reachable: 56 bytes in 1 blocks ========================================================================