Questão de Inteligencia Artificial
Qual é o papel do mecanismo de atenção em modelos seq-2-seq (sequência-para-sequência)?
Selecione a alternativa correta:
A
O mecanismo de atenção é usado apenas para melhorar a capacidade de generalização dos modelos seq-2-seq.
B
O mecanismo de atenção não é usado em modelos seq-2-seq.
C
O mecanismo de atenção permite que o modelo seq-2-seq gere uma saída para cada elemento da sequência de entrada.
D
O mecanismo de atenção é usado apenas para reduzir o overfitting em modelos seq-2-seq.
E
O mecanismo de atenção permite que o modelo seq-2-seq se concentre em partes relevantes da sequência de entrada durante o processamento.
Comentários
Ainda não há comentários para esta questão.
Seja o primeiro a comentar!