Indice
14 relazioni: Autovettore e autovalore, Bologna, Controllo adattativo, Controllo automatico, Controllo lineare quadratico gaussiano, Controllo ottimo, Criterio di Nyquist, H-infinito, Loop transfer recovery, Perturbazioni dei processi LTI, Prestazione di sensibilità, Regolatore lineare quadratico, Sistema dinamico, Stabilità interna.
- Teoria del controllo
Autovettore e autovalore
In matematica, in particolare in algebra lineare, un autovettore di una funzione tra spazi vettoriali è un vettore non nullo la cui immagine è il vettore stesso moltiplicato per uno scalare detto autovalore.
Vedere Controllo robusto e Autovettore e autovalore
Bologna
Bologna (AFI:; Bulåggna in dialetto bolognese, AFI) è un comune italiano di abitanti, capoluogo dell'omonima città metropolitana, a sua volta capoluogo dell'Emilia-Romagna.
Vedere Controllo robusto e Bologna
Controllo adattativo
In scienza dell'automazione, con il termine controllo adattativo (o controllo adattivo) si fa riferimento a leggi di controllo che in modo autonomo modificano i propri parametri per adattarsi alle modifiche che il sistema può subire durante l'esercizio delle sue funzioni.
Vedere Controllo robusto e Controllo adattativo
Controllo automatico
In scienza dell'automazione, il controllo automatico di un dato sistema dinamico (ad esempio un motore, un impianto industriale o una funzione biologica come il battito cardiaco) si prefigge di modificare il comportamento del sistema da controllare (ovvero delle sue "uscite") attraverso la manipolazione di opportune grandezze d'ingresso.
Vedere Controllo robusto e Controllo automatico
Controllo lineare quadratico gaussiano
Il controllo lineare quadratico gaussiano (Linear Quadratic Gaussian, LQG) è un compensatore dinamico ottimo capace di recuperare la stessa funzione di trasferimento di un sistema di controllo osservabile per un sistema non osservabile.
Vedere Controllo robusto e Controllo lineare quadratico gaussiano
Controllo ottimo
Il controllo ottimo è, nell'ambito dei controlli automatici, l'insieme di algoritmi di controllo che stabilizzano un sistema dinamico minimizzando una cifra di merito che dipende dallo stato del sistema e dal vettore degli ingressi.
Vedere Controllo robusto e Controllo ottimo
Criterio di Nyquist
In teoria dei sistemi il criterio di stabilità di Nyquist è una tecnica grafica che determina la stabilità asintotica di un sistema dinamico in retroazione.
Vedere Controllo robusto e Criterio di Nyquist
H-infinito
H∞ (ovvero H-infinito) è un metodo usato in teoria dei controlli per sintetizzare controllori in modo da ottenere stabilità e prestazioni garantite.
Vedere Controllo robusto e H-infinito
Loop transfer recovery
Il Loop Transfer Recovery (o LTR) è un metodo che permette di avere le caratteristiche di un controllo ottimo per sistemi in cui lo stato va stimato.
Vedere Controllo robusto e Loop transfer recovery
Perturbazioni dei processi LTI
Ogni sistema dinamico lineare tempo invariante (LTI) è un'approssimazione di un generico sistema dinamico reale. Per minimizzare l'effetto dell'approssimazione si studia il sistema perturbato, ovvero una famiglia di sistemi dinamici simili: se le proprietà di stabilità valgono per il sistema perturbato, allora varranno anche per quello reale.
Vedere Controllo robusto e Perturbazioni dei processi LTI
Prestazione di sensibilità
La prestazione di sensibilità è, nell'ambito del controllo robusto e più in generale dei controlli automatici, un vincolo aggiuntivo richiesto al sistema MIMO oltre all'asintotica stabilità in mathbbb.
Vedere Controllo robusto e Prestazione di sensibilità
Regolatore lineare quadratico
Il regolatore lineare quadratico (LQR), nell'ambito del controllo ottimo, e più in generale dei controlli automatici e dei sistemi dinamici lineari tempoinvarianti, è un compensatore dinamico ottenuto a seguito della minimizzazione di un indice di costo J(x,u) funzione dello stato x(t) e del controllo u(t).
Vedere Controllo robusto e Regolatore lineare quadratico
Sistema dinamico
In fisica, matematica e ingegneria, in particolare nella teoria dei sistemi, un sistema dinamico è un modello matematico che rappresenta un oggetto (sistema) con un numero finito di gradi di libertà che evolve nel tempo secondo una legge deterministica; tipicamente un sistema dinamico viene rappresentato analiticamente da un'equazione differenziale, espressa poi in vari formalismi, e identificato da un vettore nello spazio delle fasi, lo spazio degli stati del sistema, dove "stato" è un termine che indica l'insieme delle grandezze fisiche, dette variabili di stato, i cui valori effettivi "descrivono" il sistema in un certo istante temporale.
Vedere Controllo robusto e Sistema dinamico
Stabilità interna
In matematica, la stabilità interna o stabilità di Ljapunov di un sistema dinamico è un modo per caratterizzare la stabilità delle traiettorie compiute dal sistema nello spazio delle fasi in seguito ad una sua perturbazione in prossimità di un punto di equilibrio.
Vedere Controllo robusto e Stabilità interna
Vedi anche
Teoria del controllo
- Controllo adattativo
- Controllo automatico
- Controllo deadbeat
- Controllo digitale
- Controllo industriale
- Controllo ottimo
- Controllo robusto
- Equazione di Sylvester
- Filtro di Kalman
- H-infinito
- Inertizzatore (dispositivo meccanico)
- Matrice gramiana di controllabilità
- Matrice gramiana di osservabilità
- Microgrid
- Misura vettoriale
- Noratore
- Nullatore
- Nullore
- Optogenetica
- Procedura-S
- Realizzazione minima
- Regola di Mason
- Retroazione
- Risposta impulsiva
- Risposta in frequenza
- Servomeccanismo
- Sistema tempo-invariante
- Tempo di salita
- Teoria della decisione