]> AND Private Git Repository - predictops.git/blobdiff - main.py
Logo AND Algorithmique Numérique Distribuée

Private GIT Repository
Integrating historical features
[predictops.git] / main.py
diff --git a/main.py b/main.py
index 969054c7ce186040b11a918c079a32b3a240cf94..cf8fe81d13940c996d9abb1344c9a296d6f199f1 100644 (file)
--- a/main.py
+++ b/main.py
@@ -1,11 +1,9 @@
 from predictops.engine import Engine
 from predictops.engine import Engine
-from predictops.learn.preprocessing import Preprocessing
 
 from logging import getLogger
 from logging.config import fileConfig
 from pathlib import Path
 
 
 from logging import getLogger
 from logging.config import fileConfig
 from pathlib import Path
 
-import geopandas as gpd
 
 fileConfig((Path.cwd() / 'config') / 'logging.cfg')
 logger = getLogger()
 
 fileConfig((Path.cwd() / 'config') / 'logging.cfg')
 logger = getLogger()
@@ -18,19 +16,14 @@ if __name__ == '__main__':
     engine.add_features()
     engine.add_target()
 
     engine.add_features()
     engine.add_target()
 
-    process = Preprocessing(config_file = config, dict_features = engine.X)
+    engine.add_preprocessing()
 
 
-    print(process.dataframe.head(n=20))
-    print(process.dataframe.tail(n=20))
 
 
-    #target = toarea(stream_file = Path.cwd() / 'data' / 'targets' / 'sdis25' / 'interventions.csv')
-
-
-    exit()
+    '''target = toarea(stream_file = Path.cwd() / 'data' / 'targets' / 'sdis25' / 'interventions.csv')
 
     depts = gpd.read_file( Path.cwd() / 'data' / 'targets' / 'departments' / "departements-20180101.shp")
     Doubs = depts.loc[depts['nom'] == 'Doubs'].iloc[0]
 
     ToArea(area=Doubs.geometry,
            csv_file = Path.cwd() / 'data' / 'targets' / 'sdis25' / 'interventions.csv')
 
     depts = gpd.read_file( Path.cwd() / 'data' / 'targets' / 'departments' / "departements-20180101.shp")
     Doubs = depts.loc[depts['nom'] == 'Doubs'].iloc[0]
 
     ToArea(area=Doubs.geometry,
            csv_file = Path.cwd() / 'data' / 'targets' / 'sdis25' / 'interventions.csv')
-
+    '''