क्या किया जाना चाहिए के उत्पादन के आकार keras मॉडल परतों

0

सवाल

मैं कर रहा हूँ के बारे में उलझन में उत्पादन के आकार keras परत. मैं बनाया है एक नमूना keras मॉडल भी प्रदर्शित इसकी सारांश.

numberOfLSTMcells=1
n_timesteps_in=129
n_features=61
inp =Input(shape=(n_timesteps_in, n_features))
lstm= LSTM(numberOfLSTMcells,return_sequences=True, return_state=False) (inp)
fc=Dense(64,activation='relu',name='hidden_layer')(lstm)
out=Dense(1,activation='sigmoid',name='last_layer')(fc)
model = Model(inputs=inp, outputs=out)

सारांश के मॉडल

Model: "model_1"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input_3 (InputLayer)         [(None, 129, 61)]         0         
_________________________________________________________________
lstm_2 (LSTM)                (None, 129, 1)            252       
_________________________________________________________________
hidden_layer (Dense)         (None, 129, 64)           128       
_________________________________________________________________
last_layer (Dense)           (None, 129, 1)            65        
=================================================================
Total params: 445
Trainable params: 445
Non-trainable params: 0

मैं क्या लगता है कि के आकार के अंतिम परत होना चाहिए (None,64,1). क्योंकि hidden_layers 64 न्यूरॉन्स चला जाता है, जो इनपुट के रूप में करने के लिए last_layer

keras tensorflow
2021-11-23 20:02:29
1

सबसे अच्छा जवाब

1

के बाद आप सेट पैरामीटर return_sequences करने के लिए True में LSTM परत के साथ, आप कर रहे हैं एक अनुक्रम एक ही नंबर के साथ समय कदम के रूप में अपने इनपुट और एक आउटपुट अंतरिक्ष के 1 के लिए प्रत्येक timestep, इसलिए आकार (None, 129, 1). बाद में, आप लागू होते हैं एक Dense परत करने के लिए इस आतानक है, लेकिन इस परत है हमेशा लागू करने के लिए पिछले के आयाम में एक tensor है, जो आपके मामले में है 1 और न 129. इसलिए आप आउटपुट प्राप्त (None, 129, 64). तो, आप का उपयोग एक अंतिम उत्पादन परत भी है, जो लागू करने के लिए पिछले के आयाम अपने आतानक में जिसके परिणामस्वरूप उत्पादन के साथ आकार (None, 129, 1). के ... बदलेगी देश डॉक्स भी इस व्यवहार की व्याख्या:

यदि इनपुट परत करने के लिए एक रैंक के 2 से अधिक है, तो घने गणना डॉट उत्पाद के बीच जानकारी और कर्नेल के साथ पिछले अक्ष के आदानों और अक्ष 0 की गिरी का उपयोग कर (tf.tensordot).

आप सेट कर सकते हैं return_sequences करने के लिए False यदि आप चाहते हैं के साथ काम करने के लिए एक 2 डी उत्पादन (batch_size, features) के बजाय 3 डी (batch_size, time_steps, features)है , या आप का उपयोग कर सकते हैं Flatten परत.

2021-11-24 08:30:26

अन्य भाषाओं में

यह पृष्ठ अन्य भाषाओं में है

Русский
..................................................................................................................
Italiano
..................................................................................................................
Polski
..................................................................................................................
Română
..................................................................................................................
한국어
..................................................................................................................
Français
..................................................................................................................
Türk
..................................................................................................................
Česk
..................................................................................................................
Português
..................................................................................................................
ไทย
..................................................................................................................
中文
..................................................................................................................
Español
..................................................................................................................
Slovenský
..................................................................................................................

इस श्रेणी में लोकप्रिय

लोकप्रिय सवाल इस श्रेणी में