Um modelo seq-2-seq (sequência-para-sequência) é normalmente composto por um codificador e um decodificador. Quais das afirmativas abaixo estão corretas em relação a essa família de modelos?
I. Modelos seq-2-seq são capazes de aprender a associar sequências de entrada a sequências de saída de comprimento arbitrário.
II. Modelos seq-2-seq são mais eficazes quando a sequência de entrada e saída têm o mesmo comprimento.
III. Em um modelo de rede neural seq-2-seq, a sequência de entrada, de tamanho arbitrário, é codificada em um espaço latente (estado oculto) de tamanho fixo.
IV. Modelos seq-2-seq são úteis apenas para tarefas de processamento de linguagem natural.
Selecione a alternativa correta:
Comentários
Ainda não há comentários para esta questão.
Seja o primeiro a comentar!