Indice
17 relazioni: Assiomi di Kolmogorov, Disposizione, Disuguaglianze di Boole e di Bonferroni, Evento (teoria della probabilità), Funzione di probabilità, Indipendenza stocastica, Intersezione (insiemistica), Legge della varianza totale, Legge delle aspettative iterate, Limite insiemistico, Principio di inclusione-esclusione, Probabilità, Probabilità condizionata, Teorema della probabilità assoluta, Teorema della probabilità composta, Teorema di Bayes, Unione (insiemistica).
Assiomi di Kolmogorov
Gli assiomi di Kolmogorov sono una parte fondamentale della teoria della probabilità di Andrey Kolmogorov. In essi, la probabilità P di qualche evento E, indicata come P(E), è definita in modo da soddisfare questi assiomi.
Vedere Teorema della probabilità totale e Assiomi di Kolmogorov
Disposizione
Nel calcolo combinatorio, dati due numeri interi non negativi n e k, si definisce disposizione di n elementi a k a k (oppure di n elementi di classe k, oppure di n elementi presi k alla volta) ogni sottoinsieme ordinato di k elementi estratti da un insieme di n elementi tale che i sottoinsiemi differiscano almeno in un elemento oppure, in presenza degli stessi elementi, nel modo in cui sono ordinati.
Vedere Teorema della probabilità totale e Disposizione
Disuguaglianze di Boole e di Bonferroni
In teoria della probabilità, la disuguaglianza di Boole, nota anche come limite per l'unione, afferma che per ogni collezione finita o numerabile di eventi, la probabilità che accada almeno uno degli eventi è minore o uguale alla somma delle probabilità dei singoli eventi.
Vedere Teorema della probabilità totale e Disuguaglianze di Boole e di Bonferroni
Evento (teoria della probabilità)
Nella teoria della probabilità, un evento è un insieme di risultati (un sottoinsieme dello spazio campionario) al quale viene assegnata una certa probabilità che accadano.
Vedere Teorema della probabilità totale e Evento (teoria della probabilità)
Funzione di probabilità
Nella teoria della probabilità, la funzione di probabilità p_X(x), o funzione di massa di probabilità, o densità discreta di una variabile casuale discreta X è una funzione di variabile reale che assegna ad ogni valore possibile di X la probabilità dell'evento elementare (X.
Vedere Teorema della probabilità totale e Funzione di probabilità
Indipendenza stocastica
Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata mathbb(A|B) oppure mathbb(B|A) è pari rispettivamente a mathbb(A) e mathbb(B) queste due condizioni si possono sintetizzare con la formula.
Vedere Teorema della probabilità totale e Indipendenza stocastica
Intersezione (insiemistica)
In matematica, e in particolare in teoria degli insiemi, lintersezione (simbolo cap) di due insiemi è l'insieme degli elementi che appartengono a entrambi gli insiemi contemporaneamente.
Vedere Teorema della probabilità totale e Intersezione (insiemistica)
Legge della varianza totale
La legge della varianza totale è un teorema della teoria della probabilità, che afferma che se x e y sono variabili casuali definite sul medesimo spazio di probabilità, e la varianza di x è finita, allora: dove mathbb E è il valore atteso condizionato di x, e sigma^2(x|y) la varianza condizionata, ovvero: Dal punto di vista della statistica più che della teoria della probabilità, il primo termine è detto componente non spiegata della varianza totale, e il secondo è la componente spiegata; tale suggestiva terminologia si ricollega all'analisi del modello lineare, e in particolare al coefficiente di determinazione, o R².
Vedere Teorema della probabilità totale e Legge della varianza totale
Legge delle aspettative iterate
Nella teoria della probabilità, la legge delle aspettative iterate, o legge dell'aspettativa totale, o legge delle aspettazioni iterate (anche conosciuta sotto una varietà di ulteriori denominazioni), afferma che se X è una variabile casuale integrabile — ossia, tale che textrm|X| — e Y è un'ulteriore variabile casuale, non necessariamente integrabile, definita sul medesimo spazio di probabilità, allora: ossia, il valore atteso del valore atteso di X condizionato rispetto a Y è uguale al valore atteso di X stesso.
Vedere Teorema della probabilità totale e Legge delle aspettative iterate
Limite insiemistico
In matematica, il limite di una successione di insiemi, (A_n)_n, è un insieme che contiene gli elementi che sono contenuti in un numero infinito di insiemi A_n e che sono esclusi al più da un numero finito di essi.
Vedere Teorema della probabilità totale e Limite insiemistico
Principio di inclusione-esclusione
In matematica ed in particolare nella teoria degli insiemi, il principio di inclusione-esclusione è un'identità che mette in relazione la cardinalità di un insieme, espresso come unione di insiemi finiti, con le cardinalità di intersezioni tra questi insiemi.
Vedere Teorema della probabilità totale e Principio di inclusione-esclusione
Probabilità
Il concetto di probabilità, utilizzato a partire dal XVII secolo, è diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco.
Vedere Teorema della probabilità totale e Probabilità
Probabilità condizionata
In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si verifichi A, sapendo che B è verificato.
Vedere Teorema della probabilità totale e Probabilità condizionata
Teorema della probabilità assoluta
In teoria della probabilità il teorema della probabilità assoluta (detto anche teorema delle partizioni) afferma che se A_1,ldots,A_n formano una partizione dello spazio campionario di tutti gli eventi possibili Omega (ossia A_icap A_j.
Vedere Teorema della probabilità totale e Teorema della probabilità assoluta
Teorema della probabilità composta
Il teorema della probabilità composta deriva dal concetto di probabilità condizionata per cui la probabilità che si verifichino entrambi i due eventi è pari alla probabilità di uno dei due eventi moltiplicato con la probabilità dell'altro evento condizionato al verificarsi del primo.
Vedere Teorema della probabilità totale e Teorema della probabilità composta
Teorema di Bayes
Il teorema di Bayes (pronuncia:,; conosciuto anche come formula di Bayes o teorema della probabilità delle cause), enunciato da Thomas Bayes (1702-1761), discende da due risultati fondamentali della teoria della probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta.
Vedere Teorema della probabilità totale e Teorema di Bayes
Unione (insiemistica)
In matematica, e in particolare in teoria degli insiemi, esiste un'operazione detta unione (simbolo cup) di insiemi. Il simbolo cup deriva da U, l'iniziale della parola "unione".
Vedere Teorema della probabilità totale e Unione (insiemistica)
Conosciuto come Formula della probabilità totale.