Questão de Inteligencia Artificial
Qual das alternativas melhor descreve a função de ativação ReLU (Rectified Linear Unit)?
A
ReLU transforma a saída de cada neurônio para um valor entre -1 e 1.
B
ReLU aplica uma transformação logarítmica para suavizar as saídas.
C
ReLU retorna zero para entradas negativas e o valor da entrada para entradas positivas.
D
ReLU aumenta a complexidade do modelo ao adicionar múltiplas camadas de neurônios.
E
ReLU é utilizada exclusivamente em modelos de aprendizado supervisionado.
Comentários
Ainda não há comentários para esta questão.
Seja o primeiro a comentar!