Keras


1. 優化器(optimizers)⇒ SGD、RMSprop、Adagrad、Adadelta、Nadam、Adam、Adamax    [7種]
    SGD  →  可調lr (learning Rate)、momentum、decay (學習率衰減)、Nesterov (True or False)
    RMSprop  →  可調lr (learning Rate),其他默認
    Adagrad、Adadelta、Nadam  →  不要調任何參數 (建議全默認)

2. 目標函式(objectives)[loss] ⇒ mean_squared_error、mean_absolute_error、squared_hinge、hinge、binary_crossentropy、categorical_crossentropy    [6種]

3. 激活函式(activations)⇒ inear、sigmoid、hard_sigmoid、tanh、softplus、relu、softplus、softmax、softsign    [9種]

4. 引數初始化(Initializations)⇒ uniform、lecun_uniform、normal、orthogonal、zero、glorot_normal、he_normal    [7種]

5. 層(layer)⇒ 輸入層、隱藏層、輸出層、dropout層 (防止overfitting)
    units 節點數量 (Node數)
    input_dim 輸入資料的維度 (不含active的column數目)
    activation 該層的激活函式
    bias 是否包含偏執向量,是布林值
    output_dim 輸出資料的維度

  keras.layers.core.Dense(input_dim, init='glorot_uniform', activation='linear', weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, output_dim=None) 


5.1 keras 可用層
    Keras Freeze Layers
    Keras Dropout Layer
    Keras Flatten Layer
    Keras Masking Layer
    Keras Permute Layer
    Keras Repeat Layer
    Keras Reshape Layer (output layer)
    Keras Embedding Layer
    Keras LSTM Layer
    Keras GRU Layer
    Keras Simple RNN Layer

5.2 簡易層
    以下實例code
    一層input layer、三層hidden layer、一層output layer

model = Sequential()
model.add(Dense(512, input_dim=1024, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(256, input_dim=1024, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(128, input_dim=1024, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(1, activation='sigmoid'))