Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Installa
l'accesso più veloce di browser!
 

Discesa del gradiente e Discesa stocastica del gradiente

Scorciatoie: Differenze, Analogie, Jaccard somiglianza Coefficiente, Riferimenti.

Differenza tra Discesa del gradiente e Discesa stocastica del gradiente

Discesa del gradiente vs. Discesa stocastica del gradiente

In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche metodo del gradiente, metodo steepest descent o metodo di discesa più ripida) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili. La discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, approssimazione stocastica del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma.

Analogie tra Discesa del gradiente e Discesa stocastica del gradiente

Discesa del gradiente e Discesa stocastica del gradiente hanno 11 punti in comune (in Unionpedia): Apprendimento automatico, Condizionamento (matematica), Dataset, Discesa stocastica del gradiente, Gradiente (funzione), Lingua inglese, Norma (matematica), Ottimizzazione (matematica), Rete neurale artificiale, Retropropagazione dell'errore, Statistica.

Apprendimento automatico

L’apprendimento automatico, nota anche come machine learning, rappresenta un insieme di metodi sviluppati a partire dagli ultimi decenni del 1900 in varie comunità scientifiche con diversi nomi come: statistica computazionale, riconoscimento di pattern, reti neurali artificiali, filtraggio adattivo, teoria dei sistemi dinamici, elaborazione delle immagini, data mining, algoritmi adattivi, ecc; che utilizza metodi statistici per migliorare progressivamente la performance di un algoritmo nell'identificare pattern nei dati.

Apprendimento automatico e Discesa del gradiente · Apprendimento automatico e Discesa stocastica del gradiente · Mostra di più »

Condizionamento (matematica)

Il condizionamento in matematica, in particolare nel calcolo numerico, riguarda il rapporto tra errore commesso sul risultato di un calcolo e incertezza sui dati in ingresso.

Condizionamento (matematica) e Discesa del gradiente · Condizionamento (matematica) e Discesa stocastica del gradiente · Mostra di più »

Dataset

Un dataset (o data set) è una collezione di dati.

Dataset e Discesa del gradiente · Dataset e Discesa stocastica del gradiente · Mostra di più »

Discesa stocastica del gradiente

La discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, approssimazione stocastica del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma.

Discesa del gradiente e Discesa stocastica del gradiente · Discesa stocastica del gradiente e Discesa stocastica del gradiente · Mostra di più »

Gradiente (funzione)

Nel calcolo differenziale vettoriale, il gradiente di una funzione a valori reali (ovvero di un campo scalare) è una funzione vettoriale.

Discesa del gradiente e Gradiente (funzione) · Discesa stocastica del gradiente e Gradiente (funzione) · Mostra di più »

Lingua inglese

L'inglese (nome nativo English) è una lingua indoeuropea appartenente al ramo occidentale delle lingue germaniche, assieme all'olandese, all'alto e basso tedesco, al fiammingo e al frisone.

Discesa del gradiente e Lingua inglese · Discesa stocastica del gradiente e Lingua inglese · Mostra di più »

Norma (matematica)

In algebra lineare, analisi funzionale e aree correlate della matematica, una norma è una funzione che assegna ad ogni vettore di uno spazio vettoriale, tranne lo zero, una lunghezza positiva.

Discesa del gradiente e Norma (matematica) · Discesa stocastica del gradiente e Norma (matematica) · Mostra di più »

Ottimizzazione (matematica)

L'ottimizzazione (o programmazione matematica, PM) è una branca della matematica applicata che studia teoria e metodi per la ricerca dei punti di massimo e minimo di una funzione matematica; si ottiene così un modello matematico che traduce in termini matematici un dato problema (non occupandosi quindi direttamente di come tale modello sia stato costruito).

Discesa del gradiente e Ottimizzazione (matematica) · Discesa stocastica del gradiente e Ottimizzazione (matematica) · Mostra di più »

Rete neurale artificiale

Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese artificial neural network, abbreviato in ANN o anche come NN) è un modello matematico composto di "neuroni" artificiali, ispirato vagamente dalla semplificiazione di una rete neurale biologica.

Discesa del gradiente e Rete neurale artificiale · Discesa stocastica del gradiente e Rete neurale artificiale · Mostra di più »

Retropropagazione dell'errore

La retropropagazione dell'errore (in lingua inglese backward propagation of errors, solitamente abbreviato in backpropagation), è un algoritmo per l'allenamento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente.

Discesa del gradiente e Retropropagazione dell'errore · Discesa stocastica del gradiente e Retropropagazione dell'errore · Mostra di più »

Statistica

La statistica è una disciplina che ha come fine lo studio quantitativo e qualitativo di un particolare fenomeno in condizioni di incertezza o non determinismo, ovvero di non completa conoscenza di esso o parte di esso.

Discesa del gradiente e Statistica · Discesa stocastica del gradiente e Statistica · Mostra di più »

La lista di cui sopra risponde alle seguenti domande

Confronto tra Discesa del gradiente e Discesa stocastica del gradiente

Discesa del gradiente ha 40 relazioni, mentre Discesa stocastica del gradiente ha 53. Come hanno in comune 11, l'indice di Jaccard è 11.83% = 11 / (40 + 53).

Riferimenti

Questo articolo mostra la relazione tra Discesa del gradiente e Discesa stocastica del gradiente. Per accedere a ogni articolo dal quale è stato estratto informazioni, visitare:

Ehi! Siamo su Facebook ora! »