Logo
Unionpedia
Comunicazione
Disponibile su Google Play
Nuovo! Scarica Unionpedia sul tuo dispositivo Android™!
Gratuito
l'accesso più veloce di browser!
 

Discesa del gradiente e Rete neurale artificiale

Scorciatoie: Differenze, Analogie, Jaccard somiglianza Coefficiente, Riferimenti.

Differenza tra Discesa del gradiente e Rete neurale artificiale

Discesa del gradiente vs. Rete neurale artificiale

In ottimizzazione e analisi numerica il metodo di discesa del gradiente (detto anche metodo del gradiente, metodo steepest descent o metodo di discesa più ripida) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili. Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese artificial neural network, abbreviato in ANN o anche come NN) è un modello matematico composto di "neuroni" artificiali, ispirato vagamente dalla semplificiazione di una rete neurale biologica.

Analogie tra Discesa del gradiente e Rete neurale artificiale

Discesa del gradiente e Rete neurale artificiale hanno 6 punti in comune (in Unionpedia): Apprendimento automatico, Apprendimento supervisionato, Discesa stocastica del gradiente, Funzione (matematica), Retropropagazione dell'errore, Spazio (matematica).

Apprendimento automatico

L’apprendimento automatico, nota anche come machine learning, rappresenta un insieme di metodi sviluppati a partire dagli ultimi decenni del 1900 in varie comunità scientifiche con diversi nomi come: statistica computazionale, riconoscimento di pattern, reti neurali artificiali, filtraggio adattivo, teoria dei sistemi dinamici, elaborazione delle immagini, data mining, algoritmi adattivi, ecc; che utilizza metodi statistici per migliorare progressivamente la performance di un algoritmo nell'identificare pattern nei dati.

Apprendimento automatico e Discesa del gradiente · Apprendimento automatico e Rete neurale artificiale · Mostra di più »

Apprendimento supervisionato

L'apprendimento supervisionato è una tecnica di apprendimento automatico che mira a istruire un sistema informatico in modo da consentirgli di risolvere dei compiti in maniera autonoma sulla base di una serie di esempi ideali, costituiti da coppie di input e di output desiderati, che gli vengono inizialmente forniti.

Apprendimento supervisionato e Discesa del gradiente · Apprendimento supervisionato e Rete neurale artificiale · Mostra di più »

Discesa stocastica del gradiente

La discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, approssimazione stocastica del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma.

Discesa del gradiente e Discesa stocastica del gradiente · Discesa stocastica del gradiente e Rete neurale artificiale · Mostra di più »

Funzione (matematica)

In matematica, una funzione è una relazione tra due insiemi, chiamati dominio e codominio della funzione, che associa a ogni elemento del dominio uno e un solo elemento del codominio.

Discesa del gradiente e Funzione (matematica) · Funzione (matematica) e Rete neurale artificiale · Mostra di più »

Retropropagazione dell'errore

La retropropagazione dell'errore (in lingua inglese backward propagation of errors, solitamente abbreviato in backpropagation), è un algoritmo per l'allenamento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente.

Discesa del gradiente e Retropropagazione dell'errore · Rete neurale artificiale e Retropropagazione dell'errore · Mostra di più »

Spazio (matematica)

In matematica il termine spazio è ampiamente utilizzato e si collega ad un concetto estremamente importante e generale.

Discesa del gradiente e Spazio (matematica) · Rete neurale artificiale e Spazio (matematica) · Mostra di più »

La lista di cui sopra risponde alle seguenti domande

Confronto tra Discesa del gradiente e Rete neurale artificiale

Discesa del gradiente ha 40 relazioni, mentre Rete neurale artificiale ha 69. Come hanno in comune 6, l'indice di Jaccard è 5.50% = 6 / (40 + 69).

Riferimenti

Questo articolo mostra la relazione tra Discesa del gradiente e Rete neurale artificiale. Per accedere a ogni articolo dal quale è stato estratto informazioni, visitare:

Ehi! Siamo su Facebook ora! »