Questão de Inteligencia Artificial

Qual é o papel do mecanismo de atenção em modelos seq-2-seq (sequência-para-sequência)?

Selecione a alternativa correta:

A
O mecanismo de atenção é usado apenas para melhorar a capacidade de generalização dos modelos seq-2-seq.
B
O mecanismo de atenção não é usado em modelos seq-2-seq.
C
O mecanismo de atenção permite que o modelo seq-2-seq gere uma saída para cada elemento da sequência de entrada.
D
O mecanismo de atenção é usado apenas para reduzir o overfitting em modelos seq-2-seq.
E
O mecanismo de atenção permite que o modelo seq-2-seq se concentre em partes relevantes da sequência de entrada durante o processamento.

Comentários

U

Ainda não há comentários para esta questão.

Seja o primeiro a comentar!