Indice
9 relazioni: Derivata, Derivata parziale, Discesa del gradiente, Funzione gradino di Heaviside, Least Mean Square, Percettrone, Regola della catena, Rete neurale artificiale, Retropropagazione dell'errore.
- Reti neurali artificiali
Derivata
In matematica, la derivata è una funzione che rappresenta il tasso di cambiamento di una data funzione rispetto a una certa variabile, vale a dire la misura di quanto il valore di una funzione cambi al variare del suo argomento.
Vedere Regola delta e Derivata
Derivata parziale
In analisi matematica, la derivata parziale è una prima generalizzazione del concetto di derivata di una funzione reale alle funzioni di più variabili.
Vedere Regola delta e Derivata parziale
Discesa del gradiente
In ottimizzazione e analisi numerica, il metodo di discesa del gradiente (detto anche metodo del gradiente, oppure metodo della massima discesa, o anche della discesa più ripida; in inglese gradient descent o steepest descent) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili.
Vedere Regola delta e Discesa del gradiente
Funzione gradino di Heaviside
In matematica e fisica, la funzione gradino di Heaviside o funzione a gradino unitaria, il cui nome si deve a Oliver Heaviside, è una funzione discontinua che ha valore zero per argomenti negativi e uno per argomenti positivi.
Vedere Regola delta e Funzione gradino di Heaviside
Least Mean Square
I Least Mean Squares (LMS) sono una classe di algoritmi adattivi usati per imitare un filtro desiderato, cercando i coefficienti del filtro che producono il minimo errore quadratico medio (differenza tra il segnale vero e quello registrato).
Vedere Regola delta e Least Mean Square
Percettrone
Il percettrone è un modello di rete neurale artificiale, il primo di questo genere, introdotto nel 1943 da Warren McCulloch e Walter Pitts.
Vedere Regola delta e Percettrone
Regola della catena
In analisi matematica, la regola della catena è una regola di derivazione che permette di calcolare la derivata della funzione composta di due funzioni derivabili.
Vedere Regola delta e Regola della catena
Rete neurale artificiale
Nel campo dell'apprendimento automatico, una rete neurale artificiale (abbreviato in ANN o anche come NN) è un modello computazionale composto di "neuroni" artificiali, ispirato vagamente alla semplificazione di una rete neurale biologica.
Vedere Regola delta e Rete neurale artificiale
Retropropagazione dell'errore
La retropropagazione dell'errore è un algoritmo per l'addestramento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la discesa stocastica del gradiente.
Vedere Regola delta e Retropropagazione dell'errore
Vedi anche
Reti neurali artificiali
- Artificial Intelligence System
- Funzione radiale di base
- Funzione sigmoidea
- Funzione softmax
- Intelligenza artificiale generativa
- Mappa auto-organizzata
- Neurocrittografia
- Neuroevoluzione
- Percettrone
- Problema della scomparsa del gradiente
- Regola delta
- Reservoir computing
- Rete neurale artificiale
- Rete neurale spiking
- Retropropagazione dell'errore
- Rettificatore (reti neurali)
- Stochastic neural analog reinforcement calculator
- Word embedding
- Word2vec
Conosciuto come Delta rule.