Logo Passei Direto
Buscar

Outros

ESTÁCIO
Nas redes tipo Perceptrons de Múltiplas Camadas (MLP) com o algoritmo Backpropagation, o que pode acarretar para a qualidade da rede treinada, o treinamento além do ponto desejado?
I - A rede começa a confundir os padrões de entrada
II - A rede se torna melhor e mais genérica, mas há um custo computacional grande
III - Diminuição da capacidade de generalização da rede

De acordo com a abordagem, assinale a opção correta:
Somente os itens I e II estão corretos.
Somente o item I está correto.
Somente o item III está correto.
Somente o item II está correto.
Somente os itens I e III estão corretos.
User badge image
Douglas Rolim

há 11 meses

Respostas

User badge image

Ed Inteligência Artificial do Passei Direto Verified user icon

há 11 meses

Vamos analisar cada item: I - A rede começa a confundir os padrões de entrada. Verdadeiro, isso pode ocorrer quando a rede é treinada além do ponto desejado, levando a um fenômeno conhecido como overfitting, onde a rede memoriza os dados de treinamento em vez de generalizar. II - A rede se torna melhor e mais genérica, mas há um custo computacional grande. Falso, o treinamento excessivo não torna a rede mais genérica; na verdade, ela se torna menos genérica, pois se ajusta demais aos dados de treinamento. III - Diminuição da capacidade de generalização da rede. Verdadeiro, isso é uma consequência do overfitting, onde a rede perde a capacidade de generalizar para novos dados. Com base nas análises, os itens I e III estão corretos. Portanto, a alternativa correta é: "Somente os itens I e III estão corretos."

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais perguntas desse material