Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Scaricare
l'accesso più veloce di browser!
 

Discesa stocastica del gradiente

Indice Discesa stocastica del gradiente

La discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, approssimazione stocastica del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma.

9 relazioni: Adam, Discesa del gradiente, Discesa stocastica del gradiente, Momento, NAG, Problema della scomparsa del gradiente, Rete neurale artificiale, Retropropagazione dell'errore, SGD.

Adam

Nessuna descrizione.

Nuovo!!: Discesa stocastica del gradiente e Adam · Mostra di più »

Discesa del gradiente

In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche metodo del gradiente, metodo steepest descent o metodo di discesa più ripida) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili.

Nuovo!!: Discesa stocastica del gradiente e Discesa del gradiente · Mostra di più »

Discesa stocastica del gradiente

La discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, approssimazione stocastica del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma.

Nuovo!!: Discesa stocastica del gradiente e Discesa stocastica del gradiente · Mostra di più »

Momento

Il termine momento indica in realtà due concetti matematici ben distinti, spesso utilizzati in fisica e nelle scienze applicate.

Nuovo!!: Discesa stocastica del gradiente e Momento · Mostra di più »

NAG

Nessuna descrizione.

Nuovo!!: Discesa stocastica del gradiente e NAG · Mostra di più »

Problema della scomparsa del gradiente

Il problema della scomparsa del gradiente (in lingua inglese vanishing gradient problem) è un fenomeno che crea difficoltà nell'addestramento delle reti neurali profonde tramite retropropagazione dell'errore mediante discesa stocastica del gradiente.

Nuovo!!: Discesa stocastica del gradiente e Problema della scomparsa del gradiente · Mostra di più »

Rete neurale artificiale

Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese artificial neural network, abbreviato in ANN o anche come NN) è un modello matematico composto di "neuroni" artificiali, ispirato vagamente dalla semplificiazione di una rete neurale biologica.

Nuovo!!: Discesa stocastica del gradiente e Rete neurale artificiale · Mostra di più »

Retropropagazione dell'errore

La retropropagazione dell'errore (in lingua inglese backward propagation of errors, solitamente abbreviato in backpropagation), è un algoritmo per l'allenamento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente.

Nuovo!!: Discesa stocastica del gradiente e Retropropagazione dell'errore · Mostra di più »

SGD

Nessuna descrizione.

Nuovo!!: Discesa stocastica del gradiente e SGD · Mostra di più »

Riorienta qui:

AMSGrad, AdaDelta, AdaGrad, AdaMax, Curriculum learning, KSGD, Nadam, RMSProp.

UscenteArrivo
Ehi! Siamo su Facebook ora! »