Stiamo lavorando per ripristinare l'app di Unionpedia nel Google Play Store
UscenteArrivo
🌟Abbiamo semplificato il nostro design per una migliore navigazione!
Instagram Facebook X LinkedIn

Sistema di equazioni lineari

Indice Sistema di equazioni lineari

In matematica, e in particolare in algebra lineare, un sistema di equazioni lineari, anche detto sistema lineare, è un sistema composto da più equazioni lineari che devono essere verificate tutte contemporaneamente.

Indice

  1. 97 relazioni: A5/1, Alfredo Capelli, Algebra lineare, Analisi dei circuiti elettrici, Analisi numerica, Angolo di Brewster, Étienne Bézout, Base di Gröbner, Bitpit, Caucher Birkar, Caustica (matematica), CoCoA, Coefficiente, Colin Maclaurin, Compressed sensing, Congruenza polinomiale, Coordinate baricentriche, Cornelius Lanczos, Decomposizione ai valori singolari, Decomposizione in fratti semplici, Decomposizione LU, Decomposizione QR, Determinante (algebra), Diagramma di Bode, Discesa del gradiente, Equazione di Steinhart-Hart, Equazione di Sylvester, Equazione differenziale ordinaria, Equazione integrale, Equazioni di drift-diffusion, Formulazione debole, Funzione (matematica), Funzione di matrice, Funzione esponenziale, Geometria, Glossario sulle matrici, Hidden Fields Equations, Il caos (Ekeland), Insieme delle soluzioni, La cibernetica: Controllo e comunicazione nell'animale e nella macchina, Lewis Fry Richardson, Linearità (matematica), LINPACK, Manoscritto di Bakhshali, Matematica, Matrice, Matrice a diagonale dominante, Matrice di cambiamento di base, Matrice di Toeplitz, Matrice di Vandermonde, ... Espandi índice (47 più) »

A5/1

In crittografia l'A5/1 è un cifrario a flusso utilizzato per cifrare le comunicazioni effettuate con i telefoni cellulari GSM in Europa e Stati Uniti.

Vedere Sistema di equazioni lineari e A5/1

Alfredo Capelli

Dopo la laurea conseguita nel 1877 alla Sapienza - Università di Roma, si spostò all'Università degli Studi di Pavia dove lavorò come assistente di Felice Casorati.

Vedere Sistema di equazioni lineari e Alfredo Capelli

Algebra lineare

Lalgebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali (o spazi lineari), trasformazioni lineari e sistemi di equazioni lineari.

Vedere Sistema di equazioni lineari e Algebra lineare

Analisi dei circuiti elettrici

Lanalisi dei circuiti elettrici consiste nella determinazione delle grandezze elettriche (tensione e corrente) in ogni punto di un circuito in un qualsiasi istante di tempo.

Vedere Sistema di equazioni lineari e Analisi dei circuiti elettrici

Analisi numerica

L'analisi numerica è una branca della matematica applicata che risolve i modelli prodotti dall'analisi matematica alle scomposizioni finite normalmente praticabili, coinvolgendo il concetto di approssimazione.

Vedere Sistema di equazioni lineari e Analisi numerica

Angolo di Brewster

L'angolo di Brewster (anche conosciuto come angolo di polarizzazione) si riferisce a un fenomeno ottico che prende il nome dal fisico scozzese Sir David Brewster (1781–1868).

Vedere Sistema di equazioni lineari e Angolo di Brewster

Étienne Bézout

Diventato matematico dopo aver letto dei lavori di Eulero, Bézout insegnò nelle scuole militari, divenendo anche esaminatore ai concorsi per l'ammissione in Marina; gli fu assegnato il compito di scrivere un libro di testo per questi corsi, che, con il titolo di Cours de mathématiques à l'usage des Gardes du Pavillon et de la Marine, fu pubblicato in quattro volumi tra il 1764 e il 1769, e in seguito ampliato, dopo essere divenuto successore di Charles Étienne Louis Camus come esaminatore del Corpo d'Artiglieria, come Cours complet de mathématiques à l'usage de la marine et de l'artillerie.

Vedere Sistema di equazioni lineari e Étienne Bézout

Base di Gröbner

In algebra commutativa, algebra computazionale e geometria algebrica, una base di Gröbner è un tipo particolare di sottoinsieme generativo di un ideale I in un anello dei polinomi k, dove k è un campo.

Vedere Sistema di equazioni lineari e Base di Gröbner

Bitpit

bitpit è una libreria C++ modulare e libera per il calcolo scientifico. Lo scopo di bitpit è la semplicazione nella stesura di un programma scientifico fornendo i mattoni comuni necessari in molte applicazioni scientifiche.

Vedere Sistema di equazioni lineari e Bitpit

Caucher Birkar

Birkar ha dato un importante contributo alla moderna geometria birazionale. Nel 2010 ha ricevuto il Premio Leverhulme in matematica e statistica per il suo contributo alla geometria algebrica, e nel 2016 l'AMS Moore Prize per l'articolo Esistenza di modelli minimi per varietà di log di tipo generale, in Journal of the AMS (2010, in collaborazione con P.

Vedere Sistema di equazioni lineari e Caucher Birkar

Caustica (matematica)

In geometria differenziale e ottica geometrica, una caustica è l'inviluppo di raggi riflessi o rifratti da una varietà. È legata al concetto di caustica in ottica.

Vedere Sistema di equazioni lineari e Caustica (matematica)

CoCoA

CoCoA System (Computations in Commutative Algebra) è un sistema di algebra computazionale, sviluppato dall'Università di Genova e studiato per affrontare problemi di teoria dei numeri e soprattutto di polinomi.

Vedere Sistema di equazioni lineari e CoCoA

Coefficiente

Un coefficiente è un numero puro (rapporto tra due grandezze con la stessa unità di misura) o una quantità che moltiplica una variabile algebrica.

Vedere Sistema di equazioni lineari e Coefficiente

Colin Maclaurin

Sicuramente uno dei più brillanti matematici dell'epoca, diede un notevole contributo all'analisi matematica e contribuì soprattutto allo sviluppo delle "serie di funzioni".

Vedere Sistema di equazioni lineari e Colin Maclaurin

Compressed sensing

Compressed sensing (espressione della lingua inglese, noto anche come compressive sensing, compressive sampling e sparse sampling) indica una tecnica per trovare soluzioni sparse di un sistema di equazioni lineari sottodeterminato.

Vedere Sistema di equazioni lineari e Compressed sensing

Congruenza polinomiale

Una congruenza polinomiale, o congruenza algebrica, è una congruenza del tipo dove n è un qualsiasi intero maggiore o uguale a 2. Le proprietà di questi polinomi differiscono in molti casi radicalmente rispetto alle proprietà possedute, ad esempio, negli interi o nei razionali; in altri casi valgono invece teoremi simili se non identici.

Vedere Sistema di equazioni lineari e Congruenza polinomiale

Coordinate baricentriche

In matematica le coordinate baricentriche sono una forma di coordinate omogenee definite dai vertici di un simplesso introdotte nel 1827 da August Ferdinand Möbius.

Vedere Sistema di equazioni lineari e Coordinate baricentriche

Cornelius Lanczos

Secondo György Marx fu uno dei Marziani.

Vedere Sistema di equazioni lineari e Cornelius Lanczos

Decomposizione ai valori singolari

In algebra lineare, la decomposizione ai valori singolari, detta anche SVD (dall'acronimo inglese di singular value decomposition), è una particolare fattorizzazione di una matrice basata sull'uso di autovalori e autovettori.

Vedere Sistema di equazioni lineari e Decomposizione ai valori singolari

Decomposizione in fratti semplici

In algebra, la decomposizione in fratti semplici di una funzione razionale, anche detta decomposizione in frazioni semplici o espansione in fratti semplici, è la scrittura della frazione tramite un polinomio (che può essere nullo) sommato ad una o più frazioni con un denominatore più semplice.

Vedere Sistema di equazioni lineari e Decomposizione in fratti semplici

Decomposizione LU

In algebra lineare una decomposizione LU, o decomposizione LUP o decomposizione di Doolittle è una fattorizzazione di una matrice in una matrice triangolare inferiore L, una matrice triangolare superiore U e una matrice di permutazione P. Questa decomposizione è usata in analisi numerica per risolvere un sistema di equazioni lineari, per calcolare l'inversa di una matrice o per calcolare il determinante di una matrice.

Vedere Sistema di equazioni lineari e Decomposizione LU

Decomposizione QR

In matematica, in particolare in algebra lineare, la decomposizione QR o fattorizzazione QR di una matrice quadrata a coefficienti reali o complessi M è una scomposizione del tipo dove Q è una matrice ortogonale, e R è una matrice triangolare superiore.

Vedere Sistema di equazioni lineari e Decomposizione QR

Determinante (algebra)

In algebra lineare, il determinante di una matrice quadrata è un numero che descrive alcune proprietà algebriche e geometriche della matrice.

Vedere Sistema di equazioni lineari e Determinante (algebra)

Diagramma di Bode

Un diagramma di Bode è una rappresentazione grafica della risposta in frequenza di un sistema lineare tempo-invariante (LTI) e che consiste in due grafici che rappresentano rispettivamente l'ampiezza (o modulo) e la fase della funzione complessa di risposta in frequenza.

Vedere Sistema di equazioni lineari e Diagramma di Bode

Discesa del gradiente

In ottimizzazione e analisi numerica, il metodo di discesa del gradiente (detto anche metodo del gradiente, oppure metodo della massima discesa, o anche della discesa più ripida; in inglese gradient descent o steepest descent) è una tecnica che consente di determinare i punti di massimo e minimo di una funzione di più variabili.

Vedere Sistema di equazioni lineari e Discesa del gradiente

Equazione di Steinhart-Hart

L'equazione di Steinhart-Hart è un modello matematico della resistenza elettrica di un semiconduttore al variare della temperatura. È stata sviluppata da John S. Steinhart e Stanley R. Hart per essere usata con i termistori di tipo NTC dove fornisce una buona precisione.

Vedere Sistema di equazioni lineari e Equazione di Steinhart-Hart

Equazione di Sylvester

L'equazione di Sylvester, spesso incontrata in teoria del controllo, è un'equazione matriciale della forma dove A,B,X,C sono matrici di dimensione n times n. A,B,C sono note.

Vedere Sistema di equazioni lineari e Equazione di Sylvester

Equazione differenziale ordinaria

In matematica, unequazione differenziale ordinaria (abbreviata in EDO, oppure ODE dall'acronimo inglese Ordinary Differential Equation) è un'equazione differenziale che coinvolge una funzione di una variabile e le sue derivate di ordine qualsiasi: si tratta di un oggetto matematico estensivamente utilizzato in fisica e in molti altri ambiti della scienza; ad esempio un sistema dinamico viene descritto da un'equazione differenziale ordinaria.

Vedere Sistema di equazioni lineari e Equazione differenziale ordinaria

Equazione integrale

Si chiama equazione integrale ogni equazione che ha l'incognita sotto il segno di integrale. Per esempio, l'equazione di risoluzione di un'equazione differenziale è un'equazione integrale: in generale c'è una forte relazione tra equazioni differenziali ed integrali, e alcuni problemi possono essere formulati in entrambi i modi, come ad esempio le equazioni di Maxwell.

Vedere Sistema di equazioni lineari e Equazione integrale

Equazioni di drift-diffusion

In fisica dello stato solido per equazioni di drift-diffusion (o sistema drift-diffusion; la locuzione inglese drift-diffusion è traducibile letteralmente in italiano come avvezione-diffusione) si intende un sistema di equazioni alle derivate parziali che descrivono i fenomeni di trasporto nei dispositivi elettronici.

Vedere Sistema di equazioni lineari e Equazioni di drift-diffusion

Formulazione debole

Nell'ambito delle equazione differenziali, in particolare delle equazioni alle derivate parziali, è di grande importanza lo studio della formulazione debole dei problemi differenziali classici, che per dualità vengono anche chiamati problemi in forma forte o classica.

Vedere Sistema di equazioni lineari e Formulazione debole

Funzione (matematica)

In matematica, una funzione è una relazione tra due insiemi, chiamati dominio e codominio della funzione, che associa a ogni elemento del dominio uno e un solo elemento del codominio.

Vedere Sistema di equazioni lineari e Funzione (matematica)

Funzione di matrice

In algebra lineare si può estendere il concetto di funzione alle matrici quadrate di qualsiasi ordine n attraverso l'associazione di una serie di Maclaurin ad ogni funzione, riducendola a una somma infinita di potenze di matrici: Da cui risulta già chiaro che una funzione di matrice quadrata è una matrice dello stesso ordine i cui elementi sono costituiti da una combinazione lineare della funzione degli elementi della matrice di partenza, mentre in generale non risultano semplicemente le funzioni dell'elemento corrispondente della matrice di partenza.

Vedere Sistema di equazioni lineari e Funzione di matrice

Funzione esponenziale

In matematica, si definisce funzione esponenziale ogni funzione del tipo y.

Vedere Sistema di equazioni lineari e Funzione esponenziale

Geometria

La geometria (e questo, composto dal prefisso geo- che rimanda alla parola greca γή.

Vedere Sistema di equazioni lineari e Geometria

Glossario sulle matrici

Questo glossario sulle matrici riporta termini utilizzati per il trattamento di queste entità matematiche, che rivestono grande importanza in svariate branche e applicazioni della scienza.

Vedere Sistema di equazioni lineari e Glossario sulle matrici

Hidden Fields Equations

Le Hidden Fields Equations (HFE), in italiano funzioni a campi nascosti, altrimenti note come funzioni botola (trapdoor functions in inglese), sono un sistema crittografico a chiave pubblica presentato per la prima volta all'Eurocrypt, nel 1996, dal francese Jacques Patarin, il quale lo elaborò seguendo le idee preesistenti nel sistema di Matsumoto e Imai.

Vedere Sistema di equazioni lineari e Hidden Fields Equations

Il caos (Ekeland)

Il caos (Le chaos) è un libro di divulgazione scientifica, scritto dal matematico Ivar Ekeland, che tratta di teoria del Caos. È stato tradotto in italiano per la casa editrice Il Saggiatore.

Vedere Sistema di equazioni lineari e Il caos (Ekeland)

Insieme delle soluzioni

In matematica, un insieme delle soluzioni è l'insieme dei valori che soddisfano una o più equazioni e/o disequazioni. Per esempio, in un insieme di equazioni polinomiali a coefficienti reali l'insieme delle soluzioni reali è il sottoinsieme di R contenente i numeri che sono zeri di tutti i polinomi, formalmente: I simboli comunemente usati per indicare l'insieme delle soluzioni sono S o anche mathbb S.

Vedere Sistema di equazioni lineari e Insieme delle soluzioni

La cibernetica: Controllo e comunicazione nell'animale e nella macchina

La cibernetica: controllo e comunicazione nell'animale e nella macchina (Cybernetics, or control and communication in the animal and the machine) è un saggio del matematico statunitense Norbert Wiener del 1948, che diede origine all'omonimo filone di pensiero interdisciplinare.

Vedere Sistema di equazioni lineari e La cibernetica: Controllo e comunicazione nell'animale e nella macchina

Lewis Fry Richardson

È anche noto per il suo lavoro pionieristico sui frattali e per un metodo per risolvere un sistema di equazioni lineari noto come iterazione di Richardson modificata.

Vedere Sistema di equazioni lineari e Lewis Fry Richardson

Linearità (matematica)

In matematica, la linearità è una relazione che intercorre fra due o più enti matematici. Intuitivamente, due quantità sono in relazione lineare se tra loro sussiste una qualche forma di proporzionalità diretta.

Vedere Sistema di equazioni lineari e Linearità (matematica)

LINPACK

LINPACK è una libreria software sviluppata per eseguire operazioni di algebra lineare. È stata scritta in Fortran da Jack Dongarra, Jim Bunch, Cleve Moler, e Gilbert Stewart, ed è stata sviluppata specificatamente per i supercomputer tra gli anni 70 e l'inizio degli anni 80.

Vedere Sistema di equazioni lineari e LINPACK

Manoscritto di Bakhshali

Il manoscritto di Bakhshali è un manoscritto di matematica, scritto su corteccia di betulla, trovato nei pressi del villaggio di Bakhshali (vicino Mardan nell'attuale Pakistan) nel 1881.

Vedere Sistema di equazioni lineari e Manoscritto di Bakhshali

Matematica

La matematica (dal greco: μάθημα (máthema), traducibile con i termini "scienza", "conoscenza" o "apprendimento"; μαθηματικός (mathematikós) significa "incline ad apprendere") è la disciplina che studia le quantità, i numeri, lo spazio,.

Vedere Sistema di equazioni lineari e Matematica

Matrice

In matematica, in particolare in algebra lineare, una matrice è una tabella ordinata di elementi. Ad esempio: 1 & 0 & 5 1 & -3 & 0 end.

Vedere Sistema di equazioni lineari e Matrice

Matrice a diagonale dominante

In algebra lineare una matrice a diagonale dominante per righe in senso debole, o più comunemente matrice a diagonale dominante (o dominante diagonale), è una matrice quadrata A in mathbb^ di ordine n i cui elementi diagonali sono maggiori o uguali in valore assoluto della somma di tutti i restanti elementi della stessa riga in valore assoluto: Qualora tale relazione valga in senso stretto, ossia la matrice si definisce a diagonale dominante in senso stretto, o in senso forte, per righe, o fortemente dominante diagonale.

Vedere Sistema di equazioni lineari e Matrice a diagonale dominante

Matrice di cambiamento di base

In matematica, e più precisamente in algebra lineare, la matrice di cambiamento di base o di coordinate è una matrice quadrata che codifica il cambiamento di una base di uno spazio vettoriale.

Vedere Sistema di equazioni lineari e Matrice di cambiamento di base

Matrice di Toeplitz

In algebra lineare, una matrice di Toeplitz o matrice a diagonali costanti è una matrice in cui ogni diagonale discendente da sinistra a destra è costante.

Vedere Sistema di equazioni lineari e Matrice di Toeplitz

Matrice di Vandermonde

In algebra lineare con matrice di Vandermonde si indica una matrice le cui righe (oppure le cui colonne) hanno elementi, a partire da 1, in progressione geometrica: a_.

Vedere Sistema di equazioni lineari e Matrice di Vandermonde

Matrice esponenziale

In algebra lineare, l'esponenziale di matrice è la funzione di matrice corrispondente alla funzione esponenziale di una matrice quadrata. La matrice esponenziale compare ad esempio nella risoluzione dei sistemi lineari di equazioni differenziali.

Vedere Sistema di equazioni lineari e Matrice esponenziale

Matrice invertibile

In matematica, in particolare in algebra lineare, una matrice quadrata è detta invertibile, o regolare, o non singolare se esiste un'altra matrice tale che il prodotto matriciale tra le due restituisce la matrice identità.

Vedere Sistema di equazioni lineari e Matrice invertibile

Matrice mal condizionata

In matematica, e più precisamente in analisi numerica, una matrice mal condizionata è una matrice quadrata A in cui piccole perturbazioni negli elementi di A, o piccole variazioni del vettore b, producono grandi variazioni nelle soluzioni x del sistema lineare Un tale sistema è detto mal condizionato.

Vedere Sistema di equazioni lineari e Matrice mal condizionata

Matrice ortogonale

In matematica, e più precisamente in algebra lineare, una matrice ortogonale è una matrice invertibile tale che la sua trasposta coincide con la sua inversa.

Vedere Sistema di equazioni lineari e Matrice ortogonale

Matrice quadrata

In matematica, in particolare in algebra lineare, una matrice quadrata è una matrice dotata di un numero uguale di righe e colonne, detto ordine della matrice.

Vedere Sistema di equazioni lineari e Matrice quadrata

Metodi ABS

In matematica, i metodi ABS, dove la sigla sta per le iniziali dei cognomi di Jozsef Abaffy, Charles Broyden ed Emilio Spedicato, sono metodi computazionali sviluppati a partire dal 1981 al fine di generare una vasta classe di algoritmi utilizzabili per le seguenti applicazioni.

Vedere Sistema di equazioni lineari e Metodi ABS

Metodi di integrazione

Un metodo di integrazione è una procedura per il calcolo del valore di una precisa tipologia di integrali. Se l'integrale è risolvibile, per giungere alla soluzione è quasi sempre necessario utilizzare diversi metodi, ad esempio le tavole di integrali.

Vedere Sistema di equazioni lineari e Metodi di integrazione

Metodo dei minimi quadrati

Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano).

Vedere Sistema di equazioni lineari e Metodo dei minimi quadrati

Metodo del gradiente coniugato

In analisi numerica, il metodo del gradiente coniugato (spesso abbreviato in CG, dall'inglese conjugate gradient) è un algoritmo per la risoluzione numerica di un sistema lineare la cui matrice sia simmetrica e definita positiva.

Vedere Sistema di equazioni lineari e Metodo del gradiente coniugato

Metodo delle potenze inverse

Nell'analisi numerica, il metodo delle potenze inverse è un algoritmo iterativo per il calcolo degli autovettori di una matrice. L'algoritmo permette di stimare un autovettore quando è già conosciuta una approssimazione dell'autovalore corrispondente.

Vedere Sistema di equazioni lineari e Metodo delle potenze inverse

Metodo delle variazioni delle costanti

In analisi matematica, il metodo di variazione delle costanti o metodo di Lagrange è una procedura generale che consente di determinare l'integrale generale di un'equazione differenziale lineare di qualunque ordine e qualunque sia la funzione continua f(t) che costituisce il termine noto.

Vedere Sistema di equazioni lineari e Metodo delle variazioni delle costanti

Metodo di eliminazione di Gauss

In matematica, il metodo di eliminazione di Gauss, spesso abbreviato in MEG, è un algoritmo, che prende il nome dal matematico tedesco Carl Friedrich Gauss, usato in algebra lineare per determinare le soluzioni di un sistema di equazioni lineari, per calcolare il rango o l'inversa di una matrice.

Vedere Sistema di equazioni lineari e Metodo di eliminazione di Gauss

Metodo di falsa posizione in Fibonacci

Il metodo di falsa posizione, detto anche regula falsi, è un antico metodo iterativo per la risoluzione di problemi matematici che attualmente tendono a essere sviluppati attraverso l'utilizzo di equazioni o di sistemi d'equazioni lineari.

Vedere Sistema di equazioni lineari e Metodo di falsa posizione in Fibonacci

Metodo di Galërkin

In matematica, ed in particolare in analisi numerica, i metodi di Galërkin, il cui nome è dovuto a Boris Galërkin, permettono di passare dalla risoluzione di un problema definito in uno spazio continuo alla risoluzione di tale problema in uno spazio discreto al fine di determinarne una soluzione numerica approssimata.

Vedere Sistema di equazioni lineari e Metodo di Galërkin

Metodo di Gauss-Seidel

In analisi numerica il metodo di Gauss-Seidel è un metodo iterativo, simile al metodo di Jacobi, per la risoluzione di un sistema lineare, scritto nella forma matriciale Ax.

Vedere Sistema di equazioni lineari e Metodo di Gauss-Seidel

Metodo di Jacobi

In analisi numerica il metodo di Jacobi è un metodo iterativo per la risoluzione di sistemi lineari, un metodo cioè che calcola la soluzione di un sistema di equazioni lineari dopo un numero teoricamente infinito di passi.

Vedere Sistema di equazioni lineari e Metodo di Jacobi

Metodo iterativo

In analisi numerica un metodo numerico iterativo è un tipo di metodo numerico nel quale le successive approssimazioni della soluzione al problema matematico esaminato sono ottenute a partire dalle precedenti.

Vedere Sistema di equazioni lineari e Metodo iterativo

Minore (algebra lineare)

In matematica, in particolare in algebra lineare, un minore di una matrice A è il determinante di una matrice quadrata ottenibile da A eliminando alcune righe e/o colonne di A. I minori sono uno strumento utile per calcolare il rango di una matrice, e quindi per risolvere i sistemi lineari.

Vedere Sistema di equazioni lineari e Minore (algebra lineare)

Principio dei cassetti

Il principio dei cassetti, detto anche legge del buco della piccionaia, afferma che se n+k oggetti sono messi in n cassetti, allora almeno un cassetto deve contenere più di un oggetto.

Vedere Sistema di equazioni lineari e Principio dei cassetti

Principio di sovrapposizione

In matematica e in fisica, il principio di sovrapposizione stabilisce che per un sistema dinamico lineare l'effetto di una somma di perturbazioni in ingresso è uguale alla somma degli effetti prodotti da ogni singola perturbazione.

Vedere Sistema di equazioni lineari e Principio di sovrapposizione

Problema del bestiame di Archimede

Il problema del bestiame di Archimede (o problema bovinum o problema Archimedis) è un problema nell'analisi diofantea, lo studio di equazioni polinomiali con soluzioni intere.

Vedere Sistema di equazioni lineari e Problema del bestiame di Archimede

Problema inverso

Un problema inverso è un contesto di indagine generico in cui vengono ricercate informazioni su una grandezza fisica, o più in generale su di un sistema, a partire da misurazioni o informazioni di tipo indiretto.

Vedere Sistema di equazioni lineari e Problema inverso

Qin Jiushao

Nato a Ziyang, Sichuan, i suoi antenati furono dello Shandong. Qin Jiushao è ritenuto attualmente uno dei più grandi matematici del XIII secolo; questo è notevole, dato che tuttavia non dedicò la sua vita alla matematica.

Vedere Sistema di equazioni lineari e Qin Jiushao

Raggio spettrale

In matematica, il raggio spettrale di una matrice o di un operatore lineare limitato è l'estremo superiore della norma del modulo degli elementi del suo spettro.

Vedere Sistema di equazioni lineari e Raggio spettrale

Rango (algebra lineare)

In matematica, in particolare in algebra lineare, il rango (o caratteristica) di una matrice A a valori in un certo campo è il massimo numero di righe (o colonne) linearmente indipendenti in A. Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebra lineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari.

Vedere Sistema di equazioni lineari e Rango (algebra lineare)

Regola di Cavalieri-Simpson

Per regola di Cavalieri-Simpson o regola di Cavalieri o regola di Simpson si intende un metodo per il calcolo numerico approssimato di integrali definiti della forma: Come tutti i procedimenti per il calcolo approssimato di integrali definiti e per altri calcoli approssimati a partire da funzioni di variabile reale, tale metodo si utilizza per funzioni ,fleft(xright) delle quali non si conosce la funzione primitiva, oppure della cui primitiva si conoscono solo caratteristiche dalle quali non si riesce a ricavare un'espressione tramite funzioni elementari che possa essere ragionevolmente utilizzata per i calcoli richiesti.

Vedere Sistema di equazioni lineari e Regola di Cavalieri-Simpson

Regola di Cramer

La regola di Cramer, o metodo di Cramer, è un teorema di algebra lineare, che prende il nome dal matematico Gabriel Cramer, utile per risolvere un sistema di equazioni lineari usando il determinante, nel caso in cui il sistema abbia esattamente una soluzione.

Vedere Sistema di equazioni lineari e Regola di Cramer

Risoluzione di un'equazione

In matematica, per risolvere un'equazione si intende la ricerca degli elementi (numeri, funzioni, insieme, ecc.) che soddisfino la rispettiva equazione (due espressioni unite da un'uguaglianza).

Vedere Sistema di equazioni lineari e Risoluzione di un'equazione

Robert Remak (matematico)

È famoso per avere teorizzato la scomposizione di Remak.

Vedere Sistema di equazioni lineari e Robert Remak (matematico)

Scomposizione di Hermite

In matematica, la formula di Hermite o scomposizione di Hermite, è un metodo che permette di effettuare la decomposizione in fratti semplici di una funzione razionale.

Vedere Sistema di equazioni lineari e Scomposizione di Hermite

Sistema di equazioni

In matematica, un sistema di equazioni è un insieme di due o più equazioni che ammettono le stesse soluzioni. Ad esempio: 2x + 4y.

Vedere Sistema di equazioni lineari e Sistema di equazioni

Sistema input-output

Il sistema input-output è stato definito dall'economista sovietico Wassily Leontief analizzando statisticamente le interazioni tra le industrie di una nazione.

Vedere Sistema di equazioni lineari e Sistema input-output

Sistema non lineare

In matematica un sistema non lineare (talvolta nonlineare) è un sistema di equazioni in cui almeno una di esse è non lineare, cioè non esprimibile come combinazione lineare delle incognite presenti e di una costante.

Vedere Sistema di equazioni lineari e Sistema non lineare

Sottospazio affine

In matematica, un sottospazio affine è un sottoinsieme di uno spazio affine avente proprietà tali da farne a sua volta un altro spazio affine.

Vedere Sistema di equazioni lineari e Sottospazio affine

Sottospazio vettoriale

In matematica, e in particolare in algebra lineare, un sottospazio vettoriale è un sottoinsieme di uno spazio vettoriale, avente proprietà tali da farne a sua volta un altro spazio vettoriale.

Vedere Sistema di equazioni lineari e Sottospazio vettoriale

Storia del determinante

In algebra lineare, il determinante è una funzione che associa ad ogni matrice quadrata A uno scalare che ne sintetizza alcune proprietà algebriche.

Vedere Sistema di equazioni lineari e Storia del determinante

Successive Over Relaxation

In analisi numerica, il metodo Successive Over Relaxation, comunemente detto SOR o metodo del sovrarilassamento, è un metodo iterativo per la risoluzione di sistemi di equazioni lineari, variante del metodo di Gauss-Seidel.

Vedere Sistema di equazioni lineari e Successive Over Relaxation

Teorema del rango

In algebra lineare, il teorema del rango, detto anche teorema di nullità più rango, o teorema della dimensione, afferma che la somma tra la dimensione dell'immagine e la dimensione del nucleo di una trasformazione lineare è uguale alla dimensione del dominio di tale trasformazione lineare; equivalentemente, la somma del rango e della nullità di una matrice è uguale al numero di colonne della matrice.

Vedere Sistema di equazioni lineari e Teorema del rango

Teorema della dimensione per spazi vettoriali

In matematica, il teorema della dimensione per spazi vettoriali afferma che basi diverse di uno stesso spazio vettoriale hanno la stessa cardinalità, ovvero sono costituite dallo stesso numero di elementi.

Vedere Sistema di equazioni lineari e Teorema della dimensione per spazi vettoriali

Teorema di Cauchy-Kovalevskaya

In analisi matematica, il teorema di Cauchy-Kovalevskaya è un importante risultato di esistenza e unicità per equazioni alle derivate parziali con coefficienti analitici associate a problemi di Cauchy.

Vedere Sistema di equazioni lineari e Teorema di Cauchy-Kovalevskaya

Teorema di Rouché

In matematica il teorema di Rouché è un teorema dell'analisi complessa che afferma che, se due funzioni complesse f e g sono olomorfe su di un contorno chiuso C e al suo interno, con |g(z)| su C, allora f e f+g possiedono lo stesso numero di zeri all'interno di C, dove ogni zero deve essere contato con la sua molteplicità.

Vedere Sistema di equazioni lineari e Teorema di Rouché

Teorema di Rouché-Capelli

Il teorema di Rouché-Capelli è un teorema di algebra lineare che permette di caratterizzare l'insieme delle soluzioni di un sistema di equazioni lineari (eventualmente vuoto) mediante il rango della matrice completa e della matrice incompleta.

Vedere Sistema di equazioni lineari e Teorema di Rouché-Capelli

Teorema di Rybczynski

Il teorema di Rybczynski (corollario del modello Hecksher-ohlin), in economia, collega intensità fattoriali dei beni e dotazioni relative dei fattori produttivi con la produzione dei beni.

Vedere Sistema di equazioni lineari e Teorema di Rybczynski

Teorema di Stolper-Samuelson

Il teorema di Stolper-Samuelson, in economia, collega intensità fattoriali e prezzi relativi dei beni con le remunerazioni reali dei fattori produttivi.

Vedere Sistema di equazioni lineari e Teorema di Stolper-Samuelson

Teoria delle quasispecie

Il modello a quasispecie è una descrizione del processo dell'evoluzione darwiniana di entità autoreplicantesi all'interno di una struttura chimico-fisica.

Vedere Sistema di equazioni lineari e Teoria delle quasispecie

Vettore cardiaco

I vettori cardiaci in medicina descrivono quello che in fisica è conosciuto come momento di un dipolo elettrico, un'altra grandezza vettoriale.

Vedere Sistema di equazioni lineari e Vettore cardiaco

Vibrazione

Il termine vibrazione si riferisce in particolare a un'oscillazione meccanica attorno ad un punto d'equilibrio. L'oscillazione può essere periodica come il moto di un pendolo oppure casuale come il movimento di una gomma su una strada asfaltata; l'unità di misura della frequenza per le oscillazioni periodiche è l'hertz che corrisponde a quante volte, in un secondo, si ripresenta la stessa configurazione.

Vedere Sistema di equazioni lineari e Vibrazione

Conosciuto come Sistema lineare, Sistema lineare omogeneo, Sistemi lineari.

, Matrice esponenziale, Matrice invertibile, Matrice mal condizionata, Matrice ortogonale, Matrice quadrata, Metodi ABS, Metodi di integrazione, Metodo dei minimi quadrati, Metodo del gradiente coniugato, Metodo delle potenze inverse, Metodo delle variazioni delle costanti, Metodo di eliminazione di Gauss, Metodo di falsa posizione in Fibonacci, Metodo di Galërkin, Metodo di Gauss-Seidel, Metodo di Jacobi, Metodo iterativo, Minore (algebra lineare), Principio dei cassetti, Principio di sovrapposizione, Problema del bestiame di Archimede, Problema inverso, Qin Jiushao, Raggio spettrale, Rango (algebra lineare), Regola di Cavalieri-Simpson, Regola di Cramer, Risoluzione di un'equazione, Robert Remak (matematico), Scomposizione di Hermite, Sistema di equazioni, Sistema input-output, Sistema non lineare, Sottospazio affine, Sottospazio vettoriale, Storia del determinante, Successive Over Relaxation, Teorema del rango, Teorema della dimensione per spazi vettoriali, Teorema di Cauchy-Kovalevskaya, Teorema di Rouché, Teorema di Rouché-Capelli, Teorema di Rybczynski, Teorema di Stolper-Samuelson, Teoria delle quasispecie, Vettore cardiaco, Vibrazione.