3 분 소요

퀴즈 1:

RNN은 시퀀스 데이터를 순차적으로 처리하는 과정에서 학습의 어려움이 발생한다. 이 어려움 중 하나로, 타임 스텝(time step)이 늘어날수록 초기 입력 정보가 뒤로 갈수록 점점 약해지는 이유는 무엇이며, 이 문제는 어떻게 정의할 수 있는가?

퀴즈 2:

LSTM은 RNN의 장기 의존성 문제를 해결하기 위해 도입된 모델이다. LSTM에서 정보를 선택적으로 기억하고 잊을 수 있게 해주는 두 가지 주요 게이트는 무엇인가?

퀴즈 3:

LSTM은 RNN의 어떤 주요 문제를 개선하기 위해 개발되었는가?

퀴즈 4:

GRU는 LSTM의 변형 모델로, 더 간단한 구조를 가지고 있다. GRU는 LSTM과 달리 몇 개의 게이트를 사용하며, 그 게이트들의 역할은 무엇인가?

퀴즈 5:

GRU가 LSTM보다 간단한 구조를 가지는 이유는 무엇인가? GRU의 이러한 구조적 간소화가 제공하는 이점은 무엇인가?

퀴즈 6:

Attention 메커니즘이 도입된 주요 이유는 무엇인가?

퀴즈 7:

Attention 메커니즘이 RNN 기반 모델과 결합되었을 때, 어떤 이점을 제공하는가?

퀴즈 8:

Transformer 모델은 RNN, LSTM과는 다르게 시퀀스를 병렬로 처리할 수 있다. 이 모델이 병렬 처리가 가능한 이유는 무엇인가?

퀴즈 9:

Transformer는 RNN이나 LSTM과 달리 시퀀스의 순서 정보를 자연스럽게 학습할 수 없다. 이 문제를 해결하기 위해 Transformer 모델에서 사용되는 기법은 무엇인가?

퀴즈 10:

Transformer 모델의 주요 혁신 중 하나인 Multi-Head Attention은 기존의 Attention 메커니즘에 비해 어떤 장점을 제공하는가?

퀴즈 11:

Self-Attention 메커니즘에서 입력 시퀀스의 각 단어가 변환되는 세 가지 벡터는 무엇이며, 이 벡터들은 어떤 학습 가능한 가중치 행렬을 통해 만들어지는가?

퀴즈 12:

Multi-Head Attention에서 각 헤드는 서로 다른 정보를 학습할 수 있다. 이는 어떤 학습 과정 덕분에 가능한가?

퀴즈 13:

Multi-Head Attention에서 각 헤드의 출력이 결합될 때, 결합된 벡터의 차원은 어떻게 계산되는가?

퀴즈 14:

RNN이 직면했던 장기 의존성 문제는 어떻게 해결되었으며, 이 문제를 해결한 주요 모델들의 발전 순서를 나열하라.

댓글남기기