VERSION UPDATE: v2.1
[notebooks.git] / fmda / params.yaml
blob23aa5a971cc2e94d7d8fad946c4c567702d24d2c
1 # File used to store hyperparameters.
3 # Stateless RNN, batch_size declared at fit step
4 rnn:
5   batch_size: 32
6   timesteps: 5
7   optimizer: adam
8   rnn_layers: 1
9   rnn_units: 20
10   dense_layers: 1 # hidden dense layers AFTER recurrent layers and BEFORE final output cell
11   dense_units: 5 # number of units for hidden dense layers
12   activation: ['linear', 'linear']
13   centering: [0.0,0.0]
14   dropout: [0.2, 0.2]  # NOTE: length must match total number of layers, default is 1 hidden recurrent layer and 1 dense output layer
15   recurrent_dropout: 0.2 # Length must match number of recurrent layers
16   reset_states: True # reset hidden states after training epoch, triggers reset_states() via callbacks
17   epochs: 200
18   learning_rate: 0.001
19   clipvalue: 10.0 # gradient clipping param, gradient can't exceed this value
20   phys_initialize: False # physics initialization
21   stateful: True
22   verbose_weights: True # Prints out hashs of weights for tracking reproducibility
23   verbose_fit: False # Prints out all training epochs, makes computation much slower
24   # features_list: ['Ed', 'Ew', 'solar', 'wind', 'rain']
25   features_list: ['Ed', 'Ew', 'rain']
26   scale: True
27   scaler: 'minmax' # One of methods in scalers dictionary in moisture_rnn.py
28   train_frac: 0.5
29   val_frac: 0.1
31 # NOTE: as of 16-6-24 only param difference with simple rnn is recurrent_activation param
32 lstm:
33   batch_size: 32
34   timesteps: 5
35   optimizer: adam
36   rnn_layers: 1
37   rnn_units: 6
38   dense_layers: 1
39   dense_units: 1
40   activation: ['linear', 'linear']
41   recurrent_activation: 'sigmoid'
42   centering: [0.0,0.0]
43   dropout: [0.2, 0.2]  # NOTE: length must match total number of layers, default is 1 hidden recurrent layer and 1 dense output layer
44   recurrent_dropout: 0.2 # Length must match number of recurrent layers
45   reset_states: True # reset hidden states after training epoch, triggers reset_states() via callbacks
46   epochs: 100
47   learning_rate: 0.0001
48   clipvalue: 1.0 # gradient clipping param, gradient can't exceed this value
49   phys_initialize: False # physics initialization
50   stateful: True
51   verbose_weights: True # Prints out hashs of weights for tracking reproducibility
52   verbose_fit: False # Prints out all training epochs, makes computation much slower
53   features_list: ['Ed', 'Ew', 'rain']
54   scale: True
55   scaler: 'minmax' # One of methods in scalers dictionary in moisture_rnn.py
56   train_frac: 0.5
57   val_frac: 0.1
59 # Lives in moisture_rnn now
60 # physics_initializer:
61 #   DeltaE: [0,-1]                # bias correction
62 #   T1: 0.1                       # 1/fuel class (10)
63 #   fm_raise_vs_rain: 0.2         # fm increase per mm rain 
66 # Param sets for reproducibility
68 ## v2.1 params
69 rnn_repro:
70   batch_size: 32
71   timesteps: 5
72   optimizer: adam
73   rnn_layers: 1
74   rnn_units: 20
75   dense_layers: 1
76   dense_units: 5
77   activation: ['linear', 'linear']
78   centering: [0.0, 0.0]
79   dropout: [0.2, 0.2]
80   recurrent_dropout: 0.2
81   reset_states: True
82   epochs: 300
83   learning_rate: 0.001
84   clipvalue: 10.0
85   phys_initialize: False
86   stateful: True
87   verbose_weights: True
88   verbose_fit: False
89   features_list: ['Ed', 'Ew', 'solar', 'wind', 'rain']
90   scale: True
91   scaler: 'minmax'
92   train_frac: 0.5
93   val_frac: 0.2
95 ## v2.0 params
96 # rnn_repro:
97 #   batch_size: 32
98 #   timesteps: 5
99 #   optimizer: adam
100 #   epochs: 200
101 #   rnn_layers: 1
102 #   rnn_units: 20
103 #   dense_layers: 0 # hidden dense layers AFTER recurrent layers and BEFORE final output cell
104 #   dense_units: 1
105 #   activation: ['linear', 'linear']
106 #   centering: [0.0,0.0]
107 #   dropout: [0.0, 0.0]  # NOTE: length must match total number of layers, default is 1 hidden recurrent layer and 1 dense output layer
108 #   recurrent_dropout: 0.0 # Length must match number of recurrent layers
109 #   reset_states: True # reset hidden states after training epoch, triggers reset_states() via callbacks
110 #   epochs: 200
111 #   learning_rate: 0.001
112 #   phys_initialize: False # physics initialization
113 #   stateful: True
114 #   verbose_weights: True # Prints out hashs of weights for tracking reproducibility
115 #   verbose_fit: False # Prints out all training epochs, makes computation much slower
116 #   features_list: ['Ed', 'Ew', 'rain']
117 #   scale: True
118 #   scaler: 'reproducibility'
119 #   train_frac: 0.5
120 #   val_frac: 0.0
124