9 relazioni: Adam, Discesa del gradiente, Discesa stocastica del gradiente, Momento, NAG, Problema della scomparsa del gradiente, Rete neurale artificiale, Retropropagazione dell'errore, SGD.
Adam
Nessuna descrizione.
Nuovo!!: Discesa stocastica del gradiente e Adam · Mostra di più »
Discesa del gradiente
In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche metodo del gradiente, metodo steepest descent o metodo di discesa più ripida) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili.
Nuovo!!: Discesa stocastica del gradiente e Discesa del gradiente · Mostra di più »
Discesa stocastica del gradiente
La discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, approssimazione stocastica del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma.
Nuovo!!: Discesa stocastica del gradiente e Discesa stocastica del gradiente · Mostra di più »
Momento
Il termine momento indica in realtà due concetti matematici ben distinti, spesso utilizzati in fisica e nelle scienze applicate.
Nuovo!!: Discesa stocastica del gradiente e Momento · Mostra di più »
NAG
Nessuna descrizione.
Nuovo!!: Discesa stocastica del gradiente e NAG · Mostra di più »
Problema della scomparsa del gradiente
Il problema della scomparsa del gradiente (in lingua inglese vanishing gradient problem) è un fenomeno che crea difficoltà nell'addestramento delle reti neurali profonde tramite retropropagazione dell'errore mediante discesa stocastica del gradiente.
Nuovo!!: Discesa stocastica del gradiente e Problema della scomparsa del gradiente · Mostra di più »
Rete neurale artificiale
Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese artificial neural network, abbreviato in ANN o anche come NN) è un modello matematico composto di "neuroni" artificiali, ispirato vagamente dalla semplificiazione di una rete neurale biologica.
Nuovo!!: Discesa stocastica del gradiente e Rete neurale artificiale · Mostra di più »
Retropropagazione dell'errore
La retropropagazione dell'errore (in lingua inglese backward propagation of errors, solitamente abbreviato in backpropagation), è un algoritmo per l'allenamento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente.
Nuovo!!: Discesa stocastica del gradiente e Retropropagazione dell'errore · Mostra di più »
SGD
Nessuna descrizione.
Nuovo!!: Discesa stocastica del gradiente e SGD · Mostra di più »
Riorienta qui:
AMSGrad, AdaDelta, AdaGrad, AdaMax, Curriculum learning, KSGD, Nadam, RMSProp.