Indice
29 relazioni: Algoritmo degli autovalori di Jacobi, Algoritmo di Frank-Wolfe, Algoritmo di Gauss-Newton, Algoritmo di Levenberg-Marquardt, Algoritmo EM, Analisi numerica, Aree della matematica, Calcolo di uno zero di una funzione, Correnti a pelo libero, Costante Omega, Direzione di discesa, Discesa stocastica del gradiente, Evaporazione flash, Matrice, Matrice a diagonale dominante, Matrice sparsa, Metodo delle potenze, Metodo delle potenze inverse, Metodo delle tangenti, Metodo di falsa posizione in Fibonacci, Metodo di Gauss-Seidel, Metodo di Jacobi, Metodo di van der Pauw, Ottimizzazione (matematica), Problema di Lambert, Raggio spettrale, RANSAC, Regola di Horner, Successive Over Relaxation.
Algoritmo degli autovalori di Jacobi
In algebra lineare, lalgoritmo degli autovalori di Jacobi è un metodo iterativo per il calcolo degli autovalori e degli autovettori di una matrice simmetrica reale (processo noto come diagonalizzazione).
Vedere Metodo iterativo e Algoritmo degli autovalori di Jacobi
Algoritmo di Frank-Wolfe
In ottimizzazione convessa vincolata e in analisi numerica, l'algoritmo di Frank-Wolfe (detto anche algoritmo del gradiente condizionale, oppure del gradiente ridotto; in inglese conditional gradient o reduced gradient) è un metodo iterativo che consente di determinare il punto di minimo di un'approssimazione lineare della funzione obiettivo.
Vedere Metodo iterativo e Algoritmo di Frank-Wolfe
Algoritmo di Gauss-Newton
L'algoritmo di Gauss–Newton è un metodo iterativo per risolvere problemi di minimi quadrati e regressioni non lineari. È una versione modificata del metodo di Newton per trovare un minimo di una funzione.
Vedere Metodo iterativo e Algoritmo di Gauss-Newton
Algoritmo di Levenberg-Marquardt
Lalgoritmo di Levenberg-Marquardt (LMA) è un algoritmo di ottimizzazione usato per la soluzione di problemi in forma di minimi quadrati non lineari, che trova comunemente applicazioni in problemi di curve fitting.
Vedere Metodo iterativo e Algoritmo di Levenberg-Marquardt
Algoritmo EM
In statistica, un algoritmo di aspettazione-massimizzazione o algoritmo expectation-maximization (EM) è un metodo iterativo per trovare stime (locali) di massima verosimiglianza (o le stime del massimo a posteriori) dei parametri di modelli statistici che dipendono da variabili latenti (non osservate).
Vedere Metodo iterativo e Algoritmo EM
Analisi numerica
L'analisi numerica è una branca della matematica applicata che risolve i modelli prodotti dall'analisi matematica alle scomposizioni finite normalmente praticabili, coinvolgendo il concetto di approssimazione.
Vedere Metodo iterativo e Analisi numerica
Aree della matematica
La matematica, nel corso della sua storia, è diventata una materia estremamente diversificata, di conseguenza si è reso necessario categorizzarne le aree.
Vedere Metodo iterativo e Aree della matematica
Calcolo di uno zero di una funzione
In matematica si presentano spesso problemi che richiedono di calcolare uno zero (o radice) di una funzione di variabile reale f(x). La risoluzione del problema dipende strettamente dalla forma della funzione f: ad esempio, se essa è un polinomio o una funzione razionale esistono, per i gradi più bassi (cioè fino al quarto grado o solo in casi particolari di grado maggiore, si veda Teoria di Galois), formule che permettono di determinare in modo preciso tutti gli zeri, senza approssimazioni.
Vedere Metodo iterativo e Calcolo di uno zero di una funzione
Correnti a pelo libero
In idraulica, le correnti a pelo libero sono una tipologia di moto che l'acqua ha nei fiumi, nei canali artificiali o nelle condotte non in pressione, in cui la superficie superiore del fluido non è confinata ma è a contatto con l'atmosfera terrestre, solitamente considerata a pressione costante nel tratto oggetto di studio, definendo quindi una superficie isobarica comunemente detta "superficie libera" o "pelo libero", che può avere un andamento diverso rispetto alla pendenza del fondo.
Vedere Metodo iterativo e Correnti a pelo libero
Costante Omega
La costante Omega è una costante matematica definita da e la cui espansione decimale inizia con È il valore di W(1), dove W è la funzione W di Lambert o funzione omega (da cui il nome della costante).
Vedere Metodo iterativo e Costante Omega
Direzione di discesa
In ottimizzazione, una direzione di discesa è un vettore mathbfinmathbb R^n che, spostandosi nella direzione da esso indicata, permette di avvicinarsi a un minimo locale mathbf^* della funzione obiettivo f:mathbb R^ntomathbb R.
Vedere Metodo iterativo e Direzione di discesa
Discesa stocastica del gradiente
La discesa stocastica del gradiente (in lingua inglese stochastic gradient descent, SGD) è un metodo iterativo per l'ottimizzazione di funzioni differenziabili, approssimazione stocastica del metodo di discesa del gradiente (GD) quando la funzione costo ha la forma di una somma.
Vedere Metodo iterativo e Discesa stocastica del gradiente
Evaporazione flash
Levaporazione flash (o evaporazione parziale) consiste in un'evaporazione parziale (cioè in cui solo una parte del liquido viene fatta evaporare) effettuata facendo passare il liquido attraverso una valvola di laminazione (o un altro dispositivo di laminazione).
Vedere Metodo iterativo e Evaporazione flash
Matrice
In matematica, in particolare in algebra lineare, una matrice è una tabella ordinata di elementi. Ad esempio: 1 & 0 & 5 1 & -3 & 0 end.
Vedere Metodo iterativo e Matrice
Matrice a diagonale dominante
In algebra lineare una matrice a diagonale dominante per righe in senso debole, o più comunemente matrice a diagonale dominante (o dominante diagonale), è una matrice quadrata A in mathbb^ di ordine n i cui elementi diagonali sono maggiori o uguali in valore assoluto della somma di tutti i restanti elementi della stessa riga in valore assoluto: Qualora tale relazione valga in senso stretto, ossia la matrice si definisce a diagonale dominante in senso stretto, o in senso forte, per righe, o fortemente dominante diagonale.
Vedere Metodo iterativo e Matrice a diagonale dominante
Matrice sparsa
In matematica, in particolare in analisi numerica, una matrice sparsa è una matrice i cui valori sono quasi tutti uguali a zero. Concettualmente, la sparsità si collega ai sistemi accoppiati.
Vedere Metodo iterativo e Matrice sparsa
Metodo delle potenze
Il metodo delle potenze è un semplice metodo iterativo per il calcolo approssimato dell'autovalore di modulo massimo di una matrice e il corrispondente autovettore.
Vedere Metodo iterativo e Metodo delle potenze
Metodo delle potenze inverse
Nell'analisi numerica, il metodo delle potenze inverse è un algoritmo iterativo per il calcolo degli autovettori di una matrice. L'algoritmo permette di stimare un autovettore quando è già conosciuta una approssimazione dell'autovalore corrispondente.
Vedere Metodo iterativo e Metodo delle potenze inverse
Metodo delle tangenti
In matematica, e in particolare in analisi numerica, il metodo delle tangenti, chiamato anche metodo di Newton o metodo di Newton-Raphson, è uno dei metodi per il calcolo approssimato di una soluzione di un'equazione della forma f(x).
Vedere Metodo iterativo e Metodo delle tangenti
Metodo di falsa posizione in Fibonacci
Il metodo di falsa posizione, detto anche regula falsi, è un antico metodo iterativo per la risoluzione di problemi matematici che attualmente tendono a essere sviluppati attraverso l'utilizzo di equazioni o di sistemi d'equazioni lineari.
Vedere Metodo iterativo e Metodo di falsa posizione in Fibonacci
Metodo di Gauss-Seidel
In analisi numerica il metodo di Gauss-Seidel è un metodo iterativo, simile al metodo di Jacobi, per la risoluzione di un sistema lineare, scritto nella forma matriciale Ax.
Vedere Metodo iterativo e Metodo di Gauss-Seidel
Metodo di Jacobi
In analisi numerica il metodo di Jacobi è un metodo iterativo per la risoluzione di sistemi lineari, un metodo cioè che calcola la soluzione di un sistema di equazioni lineari dopo un numero teoricamente infinito di passi.
Vedere Metodo iterativo e Metodo di Jacobi
Metodo di van der Pauw
Il metodo di van der Pauw è una tecnica usata per la misura della resistività e del coefficiente di Hall di un campione. La sua utilità è dovuta alla possibilità di misurare queste proprietà in campioni di forma arbitraria, posto che il campione sia approssimativamente bidimensionale (cioè se il suo spessore è molto minore della larghezza) e che gli elettrodi siano posti sul perimetro.
Vedere Metodo iterativo e Metodo di van der Pauw
Ottimizzazione (matematica)
Lottimizzazione (o programmazione matematica, PM) è una branca della matematica applicata che studia teoria e metodi per la ricerca dei punti di massimo e minimo di una funzione matematica all'interno di un dominio specificato.
Vedere Metodo iterativo e Ottimizzazione (matematica)
Problema di Lambert
In meccanica celeste, il problema di Lambert riguarda la determinazione di un'orbita partendo da due vettori di posizione e dal tempo di volo.
Vedere Metodo iterativo e Problema di Lambert
Raggio spettrale
In matematica, il raggio spettrale di una matrice o di un operatore lineare limitato è l'estremo superiore della norma del modulo degli elementi del suo spettro.
Vedere Metodo iterativo e Raggio spettrale
RANSAC
RANSAC sta per "RANdom SAmple Consensus". È un metodo iterativo per la stima dei parametri di un modello matematico a partire da un insieme di dati contenente outlier.
Vedere Metodo iterativo e RANSAC
Regola di Horner
La regola di Horner o, più correttamente, l'algoritmo di Horner è un algoritmo inventato da William George Horner che permette di valutare un polinomio svolgendo N addizioni e N moltiplicazioni, anziché le N addizioni e frac moltiplicazioni richieste con il metodo di valutazione tradizionale.
Vedere Metodo iterativo e Regola di Horner
Successive Over Relaxation
In analisi numerica, il metodo Successive Over Relaxation, comunemente detto SOR o metodo del sovrarilassamento, è un metodo iterativo per la risoluzione di sistemi di equazioni lineari, variante del metodo di Gauss-Seidel.
Vedere Metodo iterativo e Successive Over Relaxation
Conosciuto come Calcolo per tentativi.