Indice
97 relazioni: A5/1, Alfredo Capelli, Algebra lineare, Analisi dei circuiti elettrici, Analisi numerica, Angolo di Brewster, Étienne Bézout, Base di Gröbner, Bitpit, Caucher Birkar, Caustica (matematica), CoCoA, Coefficiente, Colin Maclaurin, Compressed sensing, Congruenza polinomiale, Coordinate baricentriche, Cornelius Lanczos, Decomposizione ai valori singolari, Decomposizione in fratti semplici, Decomposizione LU, Decomposizione QR, Determinante (algebra), Diagramma di Bode, Discesa del gradiente, Equazione di Steinhart-Hart, Equazione di Sylvester, Equazione differenziale ordinaria, Equazione integrale, Equazioni di drift-diffusion, Formulazione debole, Funzione (matematica), Funzione di matrice, Funzione esponenziale, Geometria, Glossario sulle matrici, Hidden Fields Equations, Il caos (Ekeland), Insieme delle soluzioni, La cibernetica: Controllo e comunicazione nell'animale e nella macchina, Lewis Fry Richardson, Linearità (matematica), LINPACK, Manoscritto di Bakhshali, Matematica, Matrice, Matrice a diagonale dominante, Matrice di cambiamento di base, Matrice di Toeplitz, Matrice di Vandermonde, ... Espandi índice (47 più) »
A5/1
In crittografia l'A5/1 è un cifrario a flusso utilizzato per cifrare le comunicazioni effettuate con i telefoni cellulari GSM in Europa e Stati Uniti.
Vedere Sistema di equazioni lineari e A5/1
Alfredo Capelli
Dopo la laurea conseguita nel 1877 alla Sapienza - Università di Roma, si spostò all'Università degli Studi di Pavia dove lavorò come assistente di Felice Casorati.
Vedere Sistema di equazioni lineari e Alfredo Capelli
Algebra lineare
Lalgebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali (o spazi lineari), trasformazioni lineari e sistemi di equazioni lineari.
Vedere Sistema di equazioni lineari e Algebra lineare
Analisi dei circuiti elettrici
Lanalisi dei circuiti elettrici consiste nella determinazione delle grandezze elettriche (tensione e corrente) in ogni punto di un circuito in un qualsiasi istante di tempo.
Vedere Sistema di equazioni lineari e Analisi dei circuiti elettrici
Analisi numerica
L'analisi numerica è una branca della matematica applicata che risolve i modelli prodotti dall'analisi matematica alle scomposizioni finite normalmente praticabili, coinvolgendo il concetto di approssimazione.
Vedere Sistema di equazioni lineari e Analisi numerica
Angolo di Brewster
L'angolo di Brewster (anche conosciuto come angolo di polarizzazione) si riferisce a un fenomeno ottico che prende il nome dal fisico scozzese Sir David Brewster (1781–1868).
Vedere Sistema di equazioni lineari e Angolo di Brewster
Étienne Bézout
Diventato matematico dopo aver letto dei lavori di Eulero, Bézout insegnò nelle scuole militari, divenendo anche esaminatore ai concorsi per l'ammissione in Marina; gli fu assegnato il compito di scrivere un libro di testo per questi corsi, che, con il titolo di Cours de mathématiques à l'usage des Gardes du Pavillon et de la Marine, fu pubblicato in quattro volumi tra il 1764 e il 1769, e in seguito ampliato, dopo essere divenuto successore di Charles Étienne Louis Camus come esaminatore del Corpo d'Artiglieria, come Cours complet de mathématiques à l'usage de la marine et de l'artillerie.
Vedere Sistema di equazioni lineari e Étienne Bézout
Base di Gröbner
In algebra commutativa, algebra computazionale e geometria algebrica, una base di Gröbner è un tipo particolare di sottoinsieme generativo di un ideale I in un anello dei polinomi k, dove k è un campo.
Vedere Sistema di equazioni lineari e Base di Gröbner
Bitpit
bitpit è una libreria C++ modulare e libera per il calcolo scientifico. Lo scopo di bitpit è la semplicazione nella stesura di un programma scientifico fornendo i mattoni comuni necessari in molte applicazioni scientifiche.
Vedere Sistema di equazioni lineari e Bitpit
Caucher Birkar
Birkar ha dato un importante contributo alla moderna geometria birazionale. Nel 2010 ha ricevuto il Premio Leverhulme in matematica e statistica per il suo contributo alla geometria algebrica, e nel 2016 l'AMS Moore Prize per l'articolo Esistenza di modelli minimi per varietà di log di tipo generale, in Journal of the AMS (2010, in collaborazione con P.
Vedere Sistema di equazioni lineari e Caucher Birkar
Caustica (matematica)
In geometria differenziale e ottica geometrica, una caustica è l'inviluppo di raggi riflessi o rifratti da una varietà. È legata al concetto di caustica in ottica.
Vedere Sistema di equazioni lineari e Caustica (matematica)
CoCoA
CoCoA System (Computations in Commutative Algebra) è un sistema di algebra computazionale, sviluppato dall'Università di Genova e studiato per affrontare problemi di teoria dei numeri e soprattutto di polinomi.
Vedere Sistema di equazioni lineari e CoCoA
Coefficiente
Un coefficiente è un numero puro (rapporto tra due grandezze con la stessa unità di misura) o una quantità che moltiplica una variabile algebrica.
Vedere Sistema di equazioni lineari e Coefficiente
Colin Maclaurin
Sicuramente uno dei più brillanti matematici dell'epoca, diede un notevole contributo all'analisi matematica e contribuì soprattutto allo sviluppo delle "serie di funzioni".
Vedere Sistema di equazioni lineari e Colin Maclaurin
Compressed sensing
Compressed sensing (espressione della lingua inglese, noto anche come compressive sensing, compressive sampling e sparse sampling) indica una tecnica per trovare soluzioni sparse di un sistema di equazioni lineari sottodeterminato.
Vedere Sistema di equazioni lineari e Compressed sensing
Congruenza polinomiale
Una congruenza polinomiale, o congruenza algebrica, è una congruenza del tipo dove n è un qualsiasi intero maggiore o uguale a 2. Le proprietà di questi polinomi differiscono in molti casi radicalmente rispetto alle proprietà possedute, ad esempio, negli interi o nei razionali; in altri casi valgono invece teoremi simili se non identici.
Vedere Sistema di equazioni lineari e Congruenza polinomiale
Coordinate baricentriche
In matematica le coordinate baricentriche sono una forma di coordinate omogenee definite dai vertici di un simplesso introdotte nel 1827 da August Ferdinand Möbius.
Vedere Sistema di equazioni lineari e Coordinate baricentriche
Cornelius Lanczos
Secondo György Marx fu uno dei Marziani.
Vedere Sistema di equazioni lineari e Cornelius Lanczos
Decomposizione ai valori singolari
In algebra lineare, la decomposizione ai valori singolari, detta anche SVD (dall'acronimo inglese di singular value decomposition), è una particolare fattorizzazione di una matrice basata sull'uso di autovalori e autovettori.
Vedere Sistema di equazioni lineari e Decomposizione ai valori singolari
Decomposizione in fratti semplici
In algebra, la decomposizione in fratti semplici di una funzione razionale, anche detta decomposizione in frazioni semplici o espansione in fratti semplici, è la scrittura della frazione tramite un polinomio (che può essere nullo) sommato ad una o più frazioni con un denominatore più semplice.
Vedere Sistema di equazioni lineari e Decomposizione in fratti semplici
Decomposizione LU
In algebra lineare una decomposizione LU, o decomposizione LUP o decomposizione di Doolittle è una fattorizzazione di una matrice in una matrice triangolare inferiore L, una matrice triangolare superiore U e una matrice di permutazione P. Questa decomposizione è usata in analisi numerica per risolvere un sistema di equazioni lineari, per calcolare l'inversa di una matrice o per calcolare il determinante di una matrice.
Vedere Sistema di equazioni lineari e Decomposizione LU
Decomposizione QR
In matematica, in particolare in algebra lineare, la decomposizione QR o fattorizzazione QR di una matrice quadrata a coefficienti reali o complessi M è una scomposizione del tipo dove Q è una matrice ortogonale, e R è una matrice triangolare superiore.
Vedere Sistema di equazioni lineari e Decomposizione QR
Determinante (algebra)
In algebra lineare, il determinante di una matrice quadrata è un numero che descrive alcune proprietà algebriche e geometriche della matrice.
Vedere Sistema di equazioni lineari e Determinante (algebra)
Diagramma di Bode
Un diagramma di Bode è una rappresentazione grafica della risposta in frequenza di un sistema lineare tempo-invariante (LTI) e che consiste in due grafici che rappresentano rispettivamente l'ampiezza (o modulo) e la fase della funzione complessa di risposta in frequenza.
Vedere Sistema di equazioni lineari e Diagramma di Bode
Discesa del gradiente
In ottimizzazione e analisi numerica, il metodo di discesa del gradiente (detto anche metodo del gradiente, oppure metodo della massima discesa, o anche della discesa più ripida; in inglese gradient descent o steepest descent) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili.
Vedere Sistema di equazioni lineari e Discesa del gradiente
Equazione di Steinhart-Hart
L'equazione di Steinhart-Hart è un modello matematico della resistenza elettrica di un semiconduttore al variare della temperatura. È stata sviluppata da John S. Steinhart e Stanley R. Hart per essere usata con i termistori di tipo NTC dove fornisce una buona precisione.
Vedere Sistema di equazioni lineari e Equazione di Steinhart-Hart
Equazione di Sylvester
L'equazione di Sylvester, spesso incontrata in teoria del controllo, è un'equazione matriciale della forma dove A,B,X,C sono matrici di dimensione n times n. A,B,C sono note.
Vedere Sistema di equazioni lineari e Equazione di Sylvester
Equazione differenziale ordinaria
In matematica, unequazione differenziale ordinaria (abbreviata in EDO, oppure ODE dall'acronimo inglese Ordinary Differential Equation) è un'equazione differenziale che coinvolge una funzione di una variabile e le sue derivate di ordine qualsiasi: si tratta di un oggetto matematico estensivamente utilizzato in fisica e in molti altri ambiti della scienza; ad esempio un sistema dinamico viene descritto da un'equazione differenziale ordinaria.
Vedere Sistema di equazioni lineari e Equazione differenziale ordinaria
Equazione integrale
Si chiama equazione integrale ogni equazione che ha l'incognita sotto il segno di integrale. Per esempio, l'equazione di risoluzione di un'equazione differenziale è un'equazione integrale: in generale c'è una forte relazione tra equazioni differenziali ed integrali, e alcuni problemi possono essere formulati in entrambi i modi, come ad esempio le equazioni di Maxwell.
Vedere Sistema di equazioni lineari e Equazione integrale
Equazioni di drift-diffusion
In fisica dello stato solido per equazioni di drift-diffusion (o sistema drift-diffusion; la locuzione inglese drift-diffusion è traducibile letteralmente in italiano come avvezione-diffusione) si intende un sistema di equazioni alle derivate parziali che descrivono i fenomeni di trasporto nei dispositivi elettronici.
Vedere Sistema di equazioni lineari e Equazioni di drift-diffusion
Formulazione debole
Nell'ambito delle equazione differenziali, in particolare delle equazioni alle derivate parziali, è di grande importanza lo studio della formulazione debole dei problemi differenziali classici, che per dualità vengono anche chiamati problemi in forma forte o classica.
Vedere Sistema di equazioni lineari e Formulazione debole
Funzione (matematica)
In matematica, una funzione è una relazione tra due insiemi, chiamati dominio e codominio della funzione, che associa a ogni elemento del dominio uno e un solo elemento del codominio.
Vedere Sistema di equazioni lineari e Funzione (matematica)
Funzione di matrice
In algebra lineare si può estendere il concetto di funzione alle matrici quadrate di qualsiasi ordine n attraverso l'associazione di una serie di Maclaurin ad ogni funzione, riducendola a una somma infinita di potenze di matrici: Da cui risulta già chiaro che una funzione di matrice quadrata è una matrice dello stesso ordine i cui elementi sono costituiti da una combinazione lineare della funzione degli elementi della matrice di partenza, mentre in generale non risultano semplicemente le funzioni dell'elemento corrispondente della matrice di partenza.
Vedere Sistema di equazioni lineari e Funzione di matrice
Funzione esponenziale
In matematica, si definisce funzione esponenziale ogni funzione del tipo y.
Vedere Sistema di equazioni lineari e Funzione esponenziale
Geometria
La geometria (e questo, composto dal prefisso geo- che rimanda alla parola greca γή.
Vedere Sistema di equazioni lineari e Geometria
Glossario sulle matrici
Questo glossario sulle matrici riporta termini utilizzati per il trattamento di queste entità matematiche, che rivestono grande importanza in svariate branche e applicazioni della scienza.
Vedere Sistema di equazioni lineari e Glossario sulle matrici
Hidden Fields Equations
Le Hidden Fields Equations (HFE), in italiano funzioni a campi nascosti, altrimenti note come funzioni botola (trapdoor functions in inglese), sono un sistema crittografico a chiave pubblica presentato per la prima volta all'Eurocrypt, nel 1996, dal francese Jacques Patarin, il quale lo elaborò seguendo le idee preesistenti nel sistema di Matsumoto e Imai.
Vedere Sistema di equazioni lineari e Hidden Fields Equations
Il caos (Ekeland)
Il caos (Le chaos) è un libro di divulgazione scientifica, scritto dal matematico Ivar Ekeland, che tratta di teoria del Caos. È stato tradotto in italiano per la casa editrice Il Saggiatore.
Vedere Sistema di equazioni lineari e Il caos (Ekeland)
Insieme delle soluzioni
In matematica, un insieme delle soluzioni è l'insieme dei valori che soddisfano una o più equazioni e/o disequazioni. Per esempio, in un insieme di equazioni polinomiali a coefficienti reali l'insieme delle soluzioni reali è il sottoinsieme di R contenente i numeri che sono zeri di tutti i polinomi, formalmente: I simboli comunemente usati per indicare l'insieme delle soluzioni sono S o anche mathbb S.
Vedere Sistema di equazioni lineari e Insieme delle soluzioni
La cibernetica: Controllo e comunicazione nell'animale e nella macchina
La cibernetica: controllo e comunicazione nell'animale e nella macchina (Cybernetics, or control and communication in the animal and the machine) è un saggio del matematico statunitense Norbert Wiener del 1948, che diede origine all'omonimo filone di pensiero interdisciplinare.
Lewis Fry Richardson
È anche noto per il suo lavoro pionieristico sui frattali e per un metodo per risolvere un sistema di equazioni lineari noto come iterazione di Richardson modificata.
Vedere Sistema di equazioni lineari e Lewis Fry Richardson
Linearità (matematica)
In matematica, la linearità è una relazione che intercorre fra due o più enti matematici. Intuitivamente, due quantità sono in relazione lineare se tra loro sussiste una qualche forma di proporzionalità diretta.
Vedere Sistema di equazioni lineari e Linearità (matematica)
LINPACK
LINPACK è una libreria software sviluppata per eseguire operazioni di algebra lineare. È stata scritta in Fortran da Jack Dongarra, Jim Bunch, Cleve Moler, e Gilbert Stewart, ed è stata sviluppata specificatamente per i supercomputer tra gli anni 70 e l'inizio degli anni 80.
Vedere Sistema di equazioni lineari e LINPACK
Manoscritto di Bakhshali
Il manoscritto di Bakhshali è un manoscritto di matematica, scritto su corteccia di betulla, trovato nei pressi del villaggio di Bakhshali (vicino Mardan nell'attuale Pakistan) nel 1881.
Vedere Sistema di equazioni lineari e Manoscritto di Bakhshali
Matematica
La matematica (dal greco: μάθημα (máthema), traducibile con i termini "scienza", "conoscenza" o "apprendimento"; μαθηματικός (mathematikós) significa "incline ad apprendere") è la disciplina che studia le quantità, i numeri, lo spazio,.
Vedere Sistema di equazioni lineari e Matematica
Matrice
In matematica, in particolare in algebra lineare, una matrice è una tabella ordinata di elementi. Ad esempio: 1 & 0 & 5 1 & -3 & 0 end.
Vedere Sistema di equazioni lineari e Matrice
Matrice a diagonale dominante
In algebra lineare una matrice a diagonale dominante per righe in senso debole, o più comunemente matrice a diagonale dominante (o dominante diagonale), è una matrice quadrata A in mathbb^ di ordine n i cui elementi diagonali sono maggiori o uguali in valore assoluto della somma di tutti i restanti elementi della stessa riga in valore assoluto: Qualora tale relazione valga in senso stretto, ossia la matrice si definisce a diagonale dominante in senso stretto, o in senso forte, per righe, o fortemente dominante diagonale.
Vedere Sistema di equazioni lineari e Matrice a diagonale dominante
Matrice di cambiamento di base
In matematica, e più precisamente in algebra lineare, la matrice di cambiamento di base o di coordinate è una matrice quadrata che codifica il cambiamento di una base di uno spazio vettoriale.
Vedere Sistema di equazioni lineari e Matrice di cambiamento di base
Matrice di Toeplitz
In algebra lineare, una matrice di Toeplitz o matrice a diagonali costanti è una matrice in cui ogni diagonale discendente da sinistra a destra è costante.
Vedere Sistema di equazioni lineari e Matrice di Toeplitz
Matrice di Vandermonde
In algebra lineare con matrice di Vandermonde si indica una matrice le cui righe (oppure le cui colonne) hanno elementi, a partire da 1, in progressione geometrica: a_.
Vedere Sistema di equazioni lineari e Matrice di Vandermonde
Matrice esponenziale
In algebra lineare, l'esponenziale di matrice è la funzione di matrice corrispondente alla funzione esponenziale di una matrice quadrata. La matrice esponenziale compare ad esempio nella risoluzione dei sistemi lineari di equazioni differenziali.
Vedere Sistema di equazioni lineari e Matrice esponenziale
Matrice invertibile
In matematica, in particolare in algebra lineare, una matrice quadrata è detta invertibile, o regolare, o non singolare se esiste un'altra matrice tale che il prodotto matriciale tra le due restituisce la matrice identità.
Vedere Sistema di equazioni lineari e Matrice invertibile
Matrice mal condizionata
In matematica, e più precisamente in analisi numerica, una matrice mal condizionata è una matrice quadrata A in cui piccole perturbazioni negli elementi di A, o piccole variazioni del vettore b, producono grandi variazioni nelle soluzioni x del sistema lineare Un tale sistema è detto mal condizionato.
Vedere Sistema di equazioni lineari e Matrice mal condizionata
Matrice ortogonale
In matematica, e più precisamente in algebra lineare, una matrice ortogonale è una matrice invertibile tale che la sua trasposta coincide con la sua inversa.
Vedere Sistema di equazioni lineari e Matrice ortogonale
Matrice quadrata
In matematica, in particolare in algebra lineare, una matrice quadrata è una matrice dotata di un numero uguale di righe e colonne, detto ordine della matrice.
Vedere Sistema di equazioni lineari e Matrice quadrata
Metodi ABS
In matematica, i metodi ABS, dove la sigla sta per le iniziali dei cognomi di Jozsef Abaffy, Charles Broyden ed Emilio Spedicato, sono metodi computazionali sviluppati a partire dal 1981 al fine di generare una vasta classe di algoritmi utilizzabili per le seguenti applicazioni.
Vedere Sistema di equazioni lineari e Metodi ABS
Metodi di integrazione
Un metodo di integrazione è una procedura per il calcolo del valore di una precisa tipologia di integrali. Se l'integrale è risolvibile, per giungere alla soluzione è quasi sempre necessario utilizzare diversi metodi, ad esempio le tavole di integrali.
Vedere Sistema di equazioni lineari e Metodi di integrazione
Metodo dei minimi quadrati
Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano).
Vedere Sistema di equazioni lineari e Metodo dei minimi quadrati
Metodo del gradiente coniugato
In analisi numerica, il metodo del gradiente coniugato (spesso abbreviato in CG, dall'inglese conjugate gradient) è un algoritmo per la risoluzione numerica di un sistema lineare la cui matrice sia simmetrica e definita positiva.
Vedere Sistema di equazioni lineari e Metodo del gradiente coniugato
Metodo delle potenze inverse
Nell'analisi numerica, il metodo delle potenze inverse è un algoritmo iterativo per il calcolo degli autovettori di una matrice. L'algoritmo permette di stimare un autovettore quando è già conosciuta una approssimazione dell'autovalore corrispondente.
Vedere Sistema di equazioni lineari e Metodo delle potenze inverse
Metodo delle variazioni delle costanti
In analisi matematica, il metodo di variazione delle costanti o metodo di Lagrange è una procedura generale che consente di determinare l'integrale generale di un'equazione differenziale lineare di qualunque ordine e qualunque sia la funzione continua f(t) che costituisce il termine noto.
Vedere Sistema di equazioni lineari e Metodo delle variazioni delle costanti
Metodo di eliminazione di Gauss
In matematica, il metodo di eliminazione di Gauss, spesso abbreviato in MEG, è un algoritmo, che prende il nome dal matematico tedesco Carl Friedrich Gauss, usato in algebra lineare per determinare le soluzioni di un sistema di equazioni lineari, per calcolare il rango o l'inversa di una matrice.
Vedere Sistema di equazioni lineari e Metodo di eliminazione di Gauss
Metodo di falsa posizione in Fibonacci
Il metodo di falsa posizione, detto anche regula falsi, è un antico metodo iterativo per la risoluzione di problemi matematici che attualmente tendono a essere sviluppati attraverso l'utilizzo di equazioni o di sistemi d'equazioni lineari.
Vedere Sistema di equazioni lineari e Metodo di falsa posizione in Fibonacci
Metodo di Galërkin
In matematica, ed in particolare in analisi numerica, i metodi di Galërkin, il cui nome è dovuto a Boris Galërkin, permettono di passare dalla risoluzione di un problema definito in uno spazio continuo alla risoluzione di tale problema in uno spazio discreto al fine di determinarne una soluzione numerica approssimata.
Vedere Sistema di equazioni lineari e Metodo di Galërkin
Metodo di Gauss-Seidel
In analisi numerica il metodo di Gauss-Seidel è un metodo iterativo, simile al metodo di Jacobi, per la risoluzione di un sistema lineare, scritto nella forma matriciale Ax.
Vedere Sistema di equazioni lineari e Metodo di Gauss-Seidel
Metodo di Jacobi
In analisi numerica il metodo di Jacobi è un metodo iterativo per la risoluzione di sistemi lineari, un metodo cioè che calcola la soluzione di un sistema di equazioni lineari dopo un numero teoricamente infinito di passi.
Vedere Sistema di equazioni lineari e Metodo di Jacobi
Metodo iterativo
In analisi numerica un metodo numerico iterativo è un tipo di metodo numerico nel quale le successive approssimazioni della soluzione al problema matematico esaminato sono ottenute a partire dalle precedenti.
Vedere Sistema di equazioni lineari e Metodo iterativo
Minore (algebra lineare)
In matematica, in particolare in algebra lineare, un minore di una matrice A è il determinante di una matrice quadrata ottenibile da A eliminando alcune righe e/o colonne di A. I minori sono uno strumento utile per calcolare il rango di una matrice, e quindi per risolvere i sistemi lineari.
Vedere Sistema di equazioni lineari e Minore (algebra lineare)
Principio dei cassetti
Il principio dei cassetti, detto anche legge del buco della piccionaia, afferma che se n+k oggetti sono messi in n cassetti, allora almeno un cassetto deve contenere più di un oggetto.
Vedere Sistema di equazioni lineari e Principio dei cassetti
Principio di sovrapposizione
In matematica e in fisica, il principio di sovrapposizione stabilisce che per un sistema dinamico lineare l'effetto di una somma di perturbazioni in ingresso è uguale alla somma degli effetti prodotti da ogni singola perturbazione.
Vedere Sistema di equazioni lineari e Principio di sovrapposizione
Problema del bestiame di Archimede
Il problema del bestiame di Archimede (o problema bovinum o problema Archimedis) è un problema nell'analisi diofantea, lo studio di equazioni polinomiali con soluzioni intere.
Vedere Sistema di equazioni lineari e Problema del bestiame di Archimede
Problema inverso
Un problema inverso è un contesto di indagine generico in cui vengono ricercate informazioni su una grandezza fisica, o più in generale su di un sistema, a partire da misurazioni o informazioni di tipo indiretto.
Vedere Sistema di equazioni lineari e Problema inverso
Qin Jiushao
Nato a Ziyang, Sichuan, i suoi antenati furono dello Shandong. Qin Jiushao è ritenuto attualmente uno dei più grandi matematici del XIII secolo; questo è notevole, dato che tuttavia non dedicò la sua vita alla matematica.
Vedere Sistema di equazioni lineari e Qin Jiushao
Raggio spettrale
In matematica, il raggio spettrale di una matrice o di un operatore lineare limitato è l'estremo superiore della norma del modulo degli elementi del suo spettro.
Vedere Sistema di equazioni lineari e Raggio spettrale
Rango (algebra lineare)
In matematica, in particolare in algebra lineare, il rango (o caratteristica) di una matrice A a valori in un certo campo è il massimo numero di righe (o colonne) linearmente indipendenti in A. Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebra lineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari.
Vedere Sistema di equazioni lineari e Rango (algebra lineare)
Regola di Cavalieri-Simpson
Per regola di Cavalieri-Simpson o regola di Cavalieri o regola di Simpson si intende un metodo per il calcolo numerico approssimato di integrali definiti della forma: Come tutti i procedimenti per il calcolo approssimato di integrali definiti e per altri calcoli approssimati a partire da funzioni di variabile reale, tale metodo si utilizza per funzioni ,fleft(xright) delle quali non si conosce la funzione primitiva, oppure della cui primitiva si conoscono solo caratteristiche dalle quali non si riesce a ricavare un'espressione tramite funzioni elementari che possa essere ragionevolmente utilizzata per i calcoli richiesti.
Vedere Sistema di equazioni lineari e Regola di Cavalieri-Simpson
Regola di Cramer
La regola di Cramer, o metodo di Cramer, è un teorema di algebra lineare, che prende il nome dal matematico Gabriel Cramer, utile per risolvere un sistema di equazioni lineari usando il determinante, nel caso in cui il sistema abbia esattamente una soluzione.
Vedere Sistema di equazioni lineari e Regola di Cramer
Risoluzione di un'equazione
In matematica, per risolvere un'equazione si intende la ricerca degli elementi (numeri, funzioni, insieme, ecc.) che soddisfino la rispettiva equazione (due espressioni unite da un'uguaglianza).
Vedere Sistema di equazioni lineari e Risoluzione di un'equazione
Robert Remak (matematico)
È famoso per avere teorizzato la scomposizione di Remak.
Vedere Sistema di equazioni lineari e Robert Remak (matematico)
Scomposizione di Hermite
In matematica, la formula di Hermite o scomposizione di Hermite, è un metodo che permette di effettuare la decomposizione in fratti semplici di una funzione razionale.
Vedere Sistema di equazioni lineari e Scomposizione di Hermite
Sistema di equazioni
In matematica, un sistema di equazioni è un insieme di due o più equazioni che ammettono le stesse soluzioni. Ad esempio: 2x + 4y.
Vedere Sistema di equazioni lineari e Sistema di equazioni
Sistema input-output
Il sistema input-output è stato definito dall'economista sovietico Wassily Leontief analizzando statisticamente le interazioni tra le industrie di una nazione.
Vedere Sistema di equazioni lineari e Sistema input-output
Sistema non lineare
In matematica un sistema non lineare (talvolta nonlineare) è un sistema di equazioni in cui almeno una di esse è non lineare, cioè non esprimibile come combinazione lineare delle incognite presenti e di una costante.
Vedere Sistema di equazioni lineari e Sistema non lineare
Sottospazio affine
In matematica, un sottospazio affine è un sottoinsieme di uno spazio affine avente proprietà tali da farne a sua volta un altro spazio affine.
Vedere Sistema di equazioni lineari e Sottospazio affine
Sottospazio vettoriale
In matematica, e in particolare in algebra lineare, un sottospazio vettoriale è un sottoinsieme di uno spazio vettoriale, avente proprietà tali da farne a sua volta un altro spazio vettoriale.
Vedere Sistema di equazioni lineari e Sottospazio vettoriale
Storia del determinante
In algebra lineare, il determinante è una funzione che associa ad ogni matrice quadrata A uno scalare che ne sintetizza alcune proprietà algebriche.
Vedere Sistema di equazioni lineari e Storia del determinante
Successive Over Relaxation
In analisi numerica, il metodo Successive Over Relaxation, comunemente detto SOR o metodo del sovrarilassamento, è un metodo iterativo per la risoluzione di sistemi di equazioni lineari, variante del metodo di Gauss-Seidel.
Vedere Sistema di equazioni lineari e Successive Over Relaxation
Teorema del rango
In algebra lineare, il teorema del rango, detto anche teorema di nullità più rango, o teorema della dimensione, afferma che la somma tra la dimensione dell'immagine e la dimensione del nucleo di una trasformazione lineare è uguale alla dimensione del dominio di tale trasformazione lineare; equivalentemente, la somma del rango e della nullità di una matrice è uguale al numero di colonne della matrice.
Vedere Sistema di equazioni lineari e Teorema del rango
Teorema della dimensione per spazi vettoriali
In matematica, il teorema della dimensione per spazi vettoriali afferma che basi diverse di uno stesso spazio vettoriale hanno la stessa cardinalità, ovvero sono costituite dallo stesso numero di elementi.
Vedere Sistema di equazioni lineari e Teorema della dimensione per spazi vettoriali
Teorema di Cauchy-Kovalevskaya
In analisi matematica, il teorema di Cauchy-Kovalevskaya è un importante risultato di esistenza e unicità per equazioni alle derivate parziali con coefficienti analitici associate a problemi di Cauchy.
Vedere Sistema di equazioni lineari e Teorema di Cauchy-Kovalevskaya
Teorema di Rouché
In matematica il teorema di Rouché è un teorema dell'analisi complessa che afferma che, se due funzioni complesse f e g sono olomorfe su di un contorno chiuso C e al suo interno, con |g(z)| su C, allora f e f+g possiedono lo stesso numero di zeri all'interno di C, dove ogni zero deve essere contato con la sua molteplicità.
Vedere Sistema di equazioni lineari e Teorema di Rouché
Teorema di Rouché-Capelli
Il teorema di Rouché-Capelli è un teorema di algebra lineare che permette di caratterizzare l'insieme delle soluzioni di un sistema di equazioni lineari (eventualmente vuoto) mediante il rango della matrice completa e della matrice incompleta.
Vedere Sistema di equazioni lineari e Teorema di Rouché-Capelli
Teorema di Rybczynski
Il teorema di Rybczynski (corollario del modello Hecksher-ohlin), in economia, collega intensità fattoriali dei beni e dotazioni relative dei fattori produttivi con la produzione dei beni.
Vedere Sistema di equazioni lineari e Teorema di Rybczynski
Teorema di Stolper-Samuelson
Il teorema di Stolper-Samuelson, in economia, collega intensità fattoriali e prezzi relativi dei beni con le remunerazioni reali dei fattori produttivi.
Vedere Sistema di equazioni lineari e Teorema di Stolper-Samuelson
Teoria delle quasispecie
Il modello a quasispecie è una descrizione del processo dell'evoluzione darwiniana di entità autoreplicantesi all'interno di una struttura chimico-fisica.
Vedere Sistema di equazioni lineari e Teoria delle quasispecie
Vettore cardiaco
I vettori cardiaci in medicina descrivono quello che in fisica è conosciuto come momento di un dipolo elettrico, un'altra grandezza vettoriale.
Vedere Sistema di equazioni lineari e Vettore cardiaco
Vibrazione
Il termine vibrazione si riferisce in particolare a un'oscillazione meccanica attorno ad un punto d'equilibrio. L'oscillazione può essere periodica come il moto di un pendolo oppure casuale come il movimento di una gomma su una strada asfaltata; l'unità di misura della frequenza per le oscillazioni periodiche è l'hertz che corrisponde a quante volte, in un secondo, si ripresenta la stessa configurazione.
Vedere Sistema di equazioni lineari e Vibrazione
Conosciuto come Sistema lineare, Sistema lineare omogeneo, Sistemi lineari.