Woka 기술 블로그
ABOUTARCHIVESCATEGORIESTAGS

    ANN

  • Dec 09, 2024 ANN의 학습 TOP NEW
  • Dec 09, 2024 ANN의 발전과 구조 TOP NEW
  • Affine

  • Mar 31, 2025 Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
  • Argmax

  • Mar 31, 2025 Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
  • BPTT

  • Jan 31, 2025 순환신경망(Recurrent Neural Network, RNN) TOP NEW
  • Decoder

  • Mar 31, 2025 Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
  • Mar 28, 2025 Seq2Seq: 인코더와 디코더로 이루어진 시퀀스 변환의 기본 구조 TOP NEW
  • Encoder

  • Mar 31, 2025 Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
  • Mar 28, 2025 Seq2Seq: 인코더와 디코더로 이루어진 시퀀스 변환의 기본 구조 TOP NEW
  • GRU

  • Mar 17, 2025 GRU(Gated Recurrent Unit): 더 가벼운 구조로 LSTM을 대체할 수 있을까? TOP NEW
  • LSTM

  • Mar 28, 2025 Seq2Seq: 인코더와 디코더로 이루어진 시퀀스 변환의 기본 구조 TOP NEW
  • Mar 17, 2025 GRU(Gated Recurrent Unit): 더 가벼운 구조로 LSTM을 대체할 수 있을까? TOP NEW
  • Mar 04, 2025 LSTM(Long Short-Term Memory): Gate를 도입해 RNN의 한계를 완화한 모델 TOP NEW
  • NLP(Natural Language Processing)

  • Mar 28, 2025 Seq2Seq: 인코더와 디코더로 이루어진 시퀀스 변환의 기본 구조 TOP NEW
  • RNN

  • Jan 31, 2025 순환신경망(Recurrent Neural Network, RNN) TOP NEW
  • Sampling

  • Mar 31, 2025 Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
  • Seq2Seq

  • Mar 31, 2025 Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
  • Mar 28, 2025 Seq2Seq: 인코더와 디코더로 이루어진 시퀀스 변환의 기본 구조 TOP NEW
  • Softmax

  • Mar 31, 2025 Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
  • Truncated-BPTT

  • Jan 31, 2025 순환신경망(Recurrent Neural Network, RNN) TOP NEW
  • cell state

  • Mar 04, 2025 LSTM(Long Short-Term Memory): Gate를 도입해 RNN의 한계를 완화한 모델 TOP NEW
  • deep learning

  • Mar 31, 2025 Seq2Seq Decoder의 출력층: 은닉 상태로부터 실제 단어를 출력하기까지 TOP NEW
  • Mar 28, 2025 Seq2Seq: 인코더와 디코더로 이루어진 시퀀스 변환의 기본 구조 TOP NEW
  • Mar 17, 2025 GRU(Gated Recurrent Unit): 더 가벼운 구조로 LSTM을 대체할 수 있을까? TOP NEW
  • Mar 04, 2025 LSTM(Long Short-Term Memory): Gate를 도입해 RNN의 한계를 완화한 모델 TOP NEW
  • Jan 31, 2025 순환신경망(Recurrent Neural Network, RNN) TOP NEW
  • Dec 09, 2024 ANN의 학습 TOP NEW
  • Dec 09, 2024 ANN의 발전과 구조 TOP NEW
  • gate

  • Mar 04, 2025 LSTM(Long Short-Term Memory): Gate를 도입해 RNN의 한계를 완화한 모델 TOP NEW
  • reset gate

  • Mar 17, 2025 GRU(Gated Recurrent Unit): 더 가벼운 구조로 LSTM을 대체할 수 있을까? TOP NEW
  • update gate

  • Mar 17, 2025 GRU(Gated Recurrent Unit): 더 가벼운 구조로 LSTM을 대체할 수 있을까? TOP NEW
  • 경사하강법

  • Dec 09, 2024 ANN의 학습 TOP NEW
  • 셀 상태

  • Mar 04, 2025 LSTM(Long Short-Term Memory): Gate를 도입해 RNN의 한계를 완화한 모델 TOP NEW
  • 순환신경망

  • Jan 31, 2025 순환신경망(Recurrent Neural Network, RNN) TOP NEW
  • 역전파

  • Dec 09, 2024 ANN의 학습 TOP NEW
  • 인공신경망

  • Dec 09, 2024 ANN의 학습 TOP NEW
  • Dec 09, 2024 ANN의 발전과 구조 TOP NEW
  • 장기의존성문제

  • Mar 04, 2025 LSTM(Long Short-Term Memory): Gate를 도입해 RNN의 한계를 완화한 모델 TOP NEW
  • 퍼셉트론

  • Dec 09, 2024 ANN의 발전과 구조 TOP NEW
  • All7
  • ANN 2
  • Affine 1
  • Argmax 1
  • BPTT 1
  • Decoder 2
  • Encoder 2
  • GRU 1
  • LSTM 3
  • NLP(Natural Language Processing) 1
  • RNN 1
  • Sampling 1
  • Seq2Seq 2
  • Softmax 1
  • Truncated-BPTT 1
  • cell state 1
  • deep learning 7
  • gate 1
  • reset gate 1
  • update gate 1
  • 경사하강법 1
  • 셀 상태 1
  • 순환신경망 1
  • 역전파 1
  • 인공신경망 2
  • 장기의존성문제 1
  • 퍼셉트론 1
Copyright © 2024 Woka, All Rights Reserved
Powered by Jekyll & Yat Theme.