Implementation/Text
-
[Preprocessing] Tokenize -1Implementation/Text 2021. 11. 2. 14:29
# Tokenize 한 단어를 리스트 안에 넣는 방법 참고 blank=[] A = '오늘 날씨는 부분적으로 맑음' # 글자를 기준할 때 for e in A: blank.append(e) print(blank) >>> ['오', '늘', ' ', '날', '씨', '는', ' ', '부', '분', '적', '으', '로', ' ', '맑', '음'] # 문장 단위로 넣고 싶을 때 blank = ['오'] for p in A[1:]: blank[-1] += p print(blank) >>> ['오늘 날씨는 부분적으로 맑음'] # 위의 두 케이스를 응용하면, 단어 단위로 넣을 수 있다. => 업데이트 예정
-
[LSTM] return_sequence = True or FalseImplementation/Text 2021. 10. 5. 13:42
### dec_hidden 값을 decoder 즉, lstm layer 에 통과시켰을 때, # return_sequence = True or False 에 따른 변경. dec_hidden.shape >>> (2,10,4) # return_sequence = False 일 때, dec_lstm = tf.keras.layers.LSTM(units= 5, return_sequence=False) dec_hidden = dec_lstm(dec_hidden, initial_state=[enc_h_state, enc_c_state], mask=dec_mask) dec_hidden.shape >>> (2,5) # return sequence = True 일 때, dec_lstm = tf.keras.layers.LST..
-
[RNN] 파라미터 개수 카운팅Implementation/Text 2021. 9. 21. 13:55
# Simple RNN 파라미터 참고 # => output_dim, ( time-length or setence-length, input_dim) # => Dh, (t, d) from keras.models import Sequential from keras.layers import SimpleRNN model = Sequential() model.add(SimpleRNN(3, input_shape=(2,10))) # model.add(SimpleRNN(3, input_length=2, input_dim=10))와 동일함. model.summary() _________________________________________________________________ Layer (type) Output ..