Logo Passei Direto
Buscar

Outros

ESTÁCIO
Nas redes tipo Perceptrons de Múltiplas Camadas (MLP) com o algoritmo Backpropagation, o que pode acarretar para a qualidade da rede treinada, o treinamento além do ponto desejado?
I - A rede começa a confundir os padrões de entrada
II - A rede se torna melhor e mais genérica, mas há um custo computacional grande
III - Diminuição da capacidade de generalização da rede

De acordo com a abordagem, assinale a opção correta:
Somente os itens I e II estão corretos.
Somente o item I está correto.
Somente o item III está correto.
Somente o item II está correto.
Somente os itens I e III estão corretos.
User badge image

Enviado por Douglas Rolim ontem

Respostas

User badge image

Ed Inteligência Artificial do Passei Direto Verified user icon

ontem

Vamos analisar cada item: I - A rede começa a confundir os padrões de entrada. Verdadeiro, isso pode ocorrer quando a rede é treinada além do ponto desejado, levando a um fenômeno conhecido como overfitting, onde a rede memoriza os dados de treinamento em vez de generalizar. II - A rede se torna melhor e mais genérica, mas há um custo computacional grande. Falso, o treinamento excessivo não torna a rede mais genérica; na verdade, ela se torna menos genérica, pois se ajusta demais aos dados de treinamento. III - Diminuição da capacidade de generalização da rede. Verdadeiro, isso é uma consequência do overfitting, onde a rede perde a capacidade de generalizar para novos dados. Com base nas análises, os itens I e III estão corretos. Portanto, a alternativa correta é: "Somente os itens I e III estão corretos."

Essa resposta te ajudou?

0
Dislike0

Ainda com dúvidas?

Envie uma pergunta e tenha sua dúvida de estudo respondida!

Essa pergunta também está no material:

Mais perguntas desse material

Mais conteúdos dessa disciplina