9 relazioni: Apprendimento supervisionato, Differenziazione automatica, Discesa stocastica del gradiente, Lingua inglese, Ottimizzazione (matematica), Problema della scomparsa del gradiente, Prolog, Rete neurale artificiale, Rete neurale feed-forward.
Apprendimento supervisionato
L'apprendimento supervisionato è una tecnica di apprendimento automatico che mira a istruire un sistema informatico in modo da consentirgli di risolvere dei compiti in maniera autonoma sulla base di una serie di esempi ideali, costituiti da coppie di input e di output desiderati, che gli vengono inizialmente forniti.
Nuovo!!: Retropropagazione dell'errore e Apprendimento supervisionato · Mostra di più »
Differenziazione automatica
La differenziazione automatica (in lingua inglese automatic differentiation, AD), nota anche come differenziazione algoritmica o differenziazione computazionale, è un insieme di tecniche per il calcolo automatico delle derivate di una funzione matematica implementata da un programma informatico.
Nuovo!!: Retropropagazione dell'errore e Differenziazione automatica · Mostra di più »
Discesa stocastica del gradiente
La discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, approssimazione stocastica del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma.
Nuovo!!: Retropropagazione dell'errore e Discesa stocastica del gradiente · Mostra di più »
Lingua inglese
L'inglese (nome nativo English) è una lingua indoeuropea appartenente al ramo occidentale delle lingue germaniche, assieme all'olandese, all'alto e basso tedesco, al fiammingo e al frisone.
Nuovo!!: Retropropagazione dell'errore e Lingua inglese · Mostra di più »
Ottimizzazione (matematica)
L'ottimizzazione (o programmazione matematica, PM) è una branca della matematica applicata che studia teoria e metodi per la ricerca dei punti di massimo e minimo di una funzione matematica; si ottiene così un modello matematico che traduce in termini matematici un dato problema (non occupandosi quindi direttamente di come tale modello sia stato costruito).
Nuovo!!: Retropropagazione dell'errore e Ottimizzazione (matematica) · Mostra di più »
Problema della scomparsa del gradiente
Il problema della scomparsa del gradiente (in lingua inglese vanishing gradient problem) è un fenomeno che crea difficoltà nell'addestramento delle reti neurali profonde tramite retropropagazione dell'errore mediante discesa stocastica del gradiente.
Nuovo!!: Retropropagazione dell'errore e Problema della scomparsa del gradiente · Mostra di più »
Prolog
Il Prolog (contrazione del francese PROgrammation en LOGique) è un linguaggio di programmazione che adotta il paradigma di programmazione logica.
Nuovo!!: Retropropagazione dell'errore e Prolog · Mostra di più »
Rete neurale artificiale
Nel campo dell'apprendimento automatico, una rete neurale artificiale (in inglese artificial neural network, abbreviato in ANN o anche come NN) è un modello matematico composto di "neuroni" artificiali, ispirato vagamente dalla semplificiazione di una rete neurale biologica.
Nuovo!!: Retropropagazione dell'errore e Rete neurale artificiale · Mostra di più »
Rete neurale feed-forward
Una rete neurale feed-forward ("rete neurale con flusso in avanti") o rete feed-forward è una rete neurale artificiale dove le connessioni tra le unità non formano cicli, differenziandosi dalle reti neurali ricorrenti.
Nuovo!!: Retropropagazione dell'errore e Rete neurale feed-forward · Mostra di più »