Cap. V
Elementi di probabilità e statistica
Il concetto di probabilità sembra del tutto ignoto agli
antichi, malgrado si sia voluto trovare qualche cenno di
ragionamenti in cui esso è implicitamente presente. Anche nei
giochi d'azzardo, per esempio con dadi o astragali, sembra che i
punteggi fossero completamente slegati dalla probabilità dei
vari risultati.
I primi studi conosciuti di questioni di probabilità si
riferiscono al gioco dei dadi e compaiono nel libro De aleae
ludo (Il gioco dei dadi) di Girolamo Cardano. L'effettivo
inizio della moderna teoria delle probabilità, però, deve farsi
risalire ad una corrispondenza tra i matematici francesi Pascal e Fermat,
originata intorno al 1650 da problemi posti a Pascal da un
accanito giocatore d'azzardo, il cavaliere de Méré. Essi
disputavano su problemi del tipo:
Gettando un dado otto volte, un giocatore deve tentare di fare uno, ma dopo tre tentativi non riusciti il gioco viene interrotto. In che misura ha diritto alla posta?
Né Pascal né Fermat diedero una stesura sistematica ai loro risultati, ma nel 1657 Huygens pubblicò un trattato, De ratiociniis in ludo aleae (Sui ragionamenti nel gioco dei dadi), che era stato ispirato dalla corrispondenza dei due francesi.
Accanto all'applicazione del calcolo delle probabilità al
gioco dei dadi, al problema dei punti, all'estrazione di palle di
diverso colore da un sacchetto e ad altri giochi, compare,
intorno al XVII secolo, la matematica attuariale: l'applicazione
del calcolo delle probabilità alle attività assicurative,
specialmente per ciò che riguarda le assicurazioni sulla vita.
Basandosi su ipotesi (fissate alla luce di esperienze passate e
anticipando tendenze future) inerenti ai tassi di mortalità, ai
salari, ai tassi di interesse e ai dividendi, la matematica
attuariale si prefigge di "predire" risultati futuri.
Alla base di questa disciplina vi è il concetto di "tavole
di vita", il primo esempio delle quali fu pubblicato da John
Graunt nel suo Natural and Political Observations
(1662), che era basato su una analisi statistica delle Tabelle di
Mortalità Londinesi. Il principale scopo di queste tavole era
quello di avvertire la gente quando stava per cominciare
un'epidemia, così da dare il tempo alla popolazione di
abbandonare il paese. James Howell aveva già usato le Tabelle di
Mortalità di Londra e di Amsterdam per dedurre che la seconda
città era meno popolata della prima; ma Graunt fu il primo a
dimostrare come la statistica avrebbe potuto portare ad una serie
di interessanti conclusioni. Per esempio, valutò che la
popolazione di Londra era costituita da circa 384000 unità,
contro il milione comunemente assunto. Soprattutto, egli produsse
la prima vera tavola di vita, che mostrava, per ogni 100 bambini
concepiti, quanti raggiungevano le età successive. Quindi
applicò questa tavola, anticipando il metodo delle popolazioni
stazionarie, per stimare il numero degli uomini che
sopravvivevano alle diverse età.
Anche il matematico Jan
De Witt si interessò a queste questioni, riunendo i suoi
interessi di statista nel Trattato sulle rendite vitalizie
(1671), che prese spunto, forse, dal breve saggio di Huygens
sulle probabilità. Nel suo Trattato, De Witt introdusse quella
nozione che oggi viene descritta come speranza matematica e prese
in considerazione il problema della rendita annuale dell'ultimo
sopravvissuto tra due o più persone.
Il primo volume veramente importante sulla
teoria della probabilità è comunque Ars conjectandi [65]
(Arte di congetturare) di Jacques Bernoulli, pubblicato
nel 1713, otto anni dopo la morte dell'autore. Di fatto, il
trattato di Huygens fu riportato come la prima delle quattro
parti di cui si componeva l'Ars conjectandi, insieme a
un commento di Bernoulli. La seconda parte presentava una teoria
generale delle permutazioni e delle combinazioni [66], resa più facile dalle formule binomiale e
polinomiale. Vi troviamo la prima dimostrazione completa della formula del binomio [67] per
potenze intere positive. La dimostrazione era basata
sull'induzione matematica, metodo che Bernoulli aveva riscoperto
leggendo l'Arithmetica infinitorum di Wallis.
Conteneva anche i cosiddetti "numeri di Bernoulli"
[68]. Questi fecero la loro prima comparsa come coefficienti di
una formula ricorsiva per trovare le somme delle potenze degli
interi: oggi però essi trovano applicazione in molti altri
settori. La formula era scritta da Bernoulli così:
dove indica la somma delle c-esime
potenze dei primi n interi positivi e le lettere A, B,
C, ... (i numeri di Bernoulli) sono i coefficienti del termine in
n delle corrispondenti espressioni per , , , ...
. I numeri di Bernoulli sono utili per scrivere gli sviluppi in
serie di funzioni trigonometriche e iperboliche. E' facile
verificare che i primi tre numeri sono , e .
La terza e la quarta parte dell'Ars conjectandi sono
dedicate principalmente a problemi che illustrano la teoria della
probabilità. La quarta parte contiene il famoso teorema che oggi
porta il nome dell'autore e intorno al quale Bernoulli ebbe una
fitta corrispondenza con Leibniz: la cosiddetta "legge dei grandi numeri"
[69]. Questa legge afferma che, se p è la probabilità
di un evento, se m è il numero delle volte in cui
l'evento si verifica in n prove, se è
un numero positivo piccolo a piacere e se P è la probabilità
che la disuguaglianza sia soddisfatta, allora , ossia,
aumentando il numero delle prove, le differenze tra le frequenze
relative e le probabilità possono, in valore assoluto, divenire
minori di qualunque prefissato numero positivo, per quanto
piccolo esso sia.
Della grande famiglia dei Bernoulli, non solo Jacques si occupò
di probabilità, ma anche Daniel e Nicholas, suoi nipoti. Nel
periodo in cui i due fratelli si trovarono ad insegnare
matematica a Pietroburgo, nelle loro discussioni emerse un
problema che divenne famoso con il nome di "paradosso di
Pietroburgo":
supponiamo che Pietro e Paolo si mettano a giocare a testa e croce con una moneta. Se il primo lancio dà testa, Paolo darà a Pietro una corona; se il primo lancio dà croce, ma si ottiene testa per la prima volta al secondo lancio, Paolo darà a Pietro due corone; se compare testa per la prima volta al terzo lancio, Paolo darà a Pietro quattro corone; e così via, la somma pagata se compare testa per la prima volta all'n-esimo lancio sarà di corone. Qual è la somma che Pietro dovrebbe pagare a Paolo perché questi accetti di giocare?
La speranza matematica di Pietro, data dalla serie
è evidentemente infinita, e tuttavia il senso comune
suggerirebbe una somma finita molto modesta. Quando Georges Louis
Leclerc, Conte di Buffon, fece una prova empirica della
questione, trovò che in 2084 giochi Paolo avrebbe pagato a
Pietro 10057 corone. Ciò significa che per qualsiasi gioco la
speranza di Paolo, anziché essere infinita, è di fatto un po'
meno di 5 corone. Il paradosso sollevato dal problema di
Pietroburgo fu largamente discusso nel corso del XVIII secolo e
ne furono date differenti spiegazioni. Daniel Bernoulli cercò di
risolverlo mediante il suo principio della speranza morale, in
base al quale sostituì le somme con . Altri preferirono
risolvere il paradosso sottolineando che il problema era
intrinsecamente impossibile in considerazione del fatto che la
fortuna di Paolo era necessariamente finita e che pertanto egli
non sarebbe stato in grado di pagare le somme illimitate che si
sarebbero richieste nel caso di un lungo ritardo nella comparsa
di testa.
La teoria della probabilità ebbe molti adepti all'inizio del
XVIII secolo, e fra questi uno dei più importanti fu Abraham
De Moivre. Nel 1711 pubblicò sulle Philosophical
Transactions una lunga memoria sulle leggi del caso, e più
tardi ne sviluppò il contenuto in un celebre volume, intitolato Doctrine
of Chances (La dottrina dei casi), apparso nel 1718. La
memoria e il volume contenevano numerose questioni sul gioco dei
dadi, sul problema dei punti (con disuguali probabilità di
vittoria), sull'estrazione di palle di diverso colore da un
sacchetto e su altri giochi. Alcuni di questi problemi erano già
apparsi nell'Ars conjectandi di Bernoulli, la cui
pubblicazione precedette quella della Doctrine of Chances
ma fu posteriore a quella della memoria di De Moivre. Il volume,
nelle sue varie edizioni, presentava più di cinquanta problemi
sulla probabilità, oltre a questioni relative a rendite
vitalizie. In generale, De Moivre derivava la teoria delle
permutazioni e delle combinazioni dai principi della
probabilità, mentre oggi i ruoli appaiono solitamente
rovesciati. Per esempio, per trovare il numero delle permutazioni
di due lettere scelte fra le sei lettere a, b, c,
d, e, f, egli partiva
dall'osservazione che la probabilità che una particolare lettera
sia la prima è e che la probabilità che un'altra lettera specifica
sia la seconda è ; pertanto la probabilità che queste due
lettere compaiano in tale ordine è . Da ciò concludeva che il
numero di tutte le permutazioni possibili, prendendo due lettere
alla volta, era 30. A De Moivre viene spesso attribuito il
principio, pubblicato nella Doctrine of Chances, secondo
cui la probabilità composta di un evento è uguale al prodotto
delle singole probabilità; esso però era già implicito in
opere precedenti.
De Moivre era particolarmente interessato a sviluppare per la
teoria delle probabilità procedimenti generali. Una
generalizzazione di un problema precedentemente formulato da
Huygens viene di solito chiamato problema di De Moivre: calcolare
la probabilità di ottenere un dato numero lanciando n
dadi aventi ciascuno m facce. Alcuni dei suoi contributi
alla teoria delle probabilità furono pubblicati in un altro
volume, uscito nel 1730 con il titolo Miscellanea analytica.
In un supplemento a quest'opera, De Moivre inserì alcuni
risultati apparsi anche nel Methodus differentialis di James
Stirling, pubblicato anch'esso nel 1730. Fra questi vi era
l'approssimazione di n! con
solitamente nota come la "formula
di Stirling" [70], e una serie, anch'essa recante il
nome di Stirling, che mette in relazione ln n!
con i numeri di Bernoulli.
Sembra che De Moivre sia stato il primo ad operare con la formula
di probabilità
risultato che apparve con scarso rilievo in un opuscolo
stampato privatamente nel 1737 con il titolo Approximatio ad
summam terminorum binomii in seriem expansi. Questo lavoro, in
cui veniva presentata per la prima volta la legge degli errori o
curva degli errori, fu poi tradotto da De Moivre e inserito nella
seconda edizione della sua Doctrine of Chances.
La teoria delle probabilità è debitrice anche a Laplace:
a partire dal 1774 scrisse numerose memorie sull'argomento,
raccogliendo infine i risultati via via raggiunti nel suo
classico trattato Theorie
analytique des probabilites [71] del 1812. Egli trattò
questa teoria sotto tutti gli aspetti e ad ogni livello, e nel
1814 pubblicò il suo Essai
philosophique des probabilites [72] per offrire una
esposizione introduttiva al lettore non specializzato. La sua Theorie
analytique, però, rivela la mano di un grande analista che
conosce bene l'analisi superiore.
Alla base del calcolo delle probabilità stanno la legge delle probabilità totali e la legge delle probabilità composte. La prima riguarda la somma, o unione, di due eventi A e B ed è l'evento consistente nel verificarsi di uno almeno dei due eventi considerati. La seconda riguarda il prodotto, o intersezione, di due eventi A e B ed è l'evento consistente nel verificarsi di entrambi gli eventi considerati. Si basa sull'importante concetto di probabilità condizionata: dati due eventi A e B, la probabilità condizionata di A dato B, P(A/B), è la probabilità di A quando si considerano solo le prove in cui B si verifica. Dalle leggi considerate si deduce facilmente l'importante teorema di Bayes [73]: se l'evento E si presenta solo se si presenta uno degli eventi, a due a due incompatibili, , allora
Gli eventi vengono chiamati ipotesi, o cause, e costituiscono le diverse alternative che possono spiegare un evento E osservato sperimentalmente. Le probabilità sono dette probabilità a priori, prescindendo dal verificarsi o meno dell'evento E; le probabilità a posteriori esprimono le probabilità delle ipotesi dopo che si è osservato l'evento E. Il teorema di Bayes indica come l'osservazione di E modifica le probabilità delle ipotesi, facendo passare dalle probabilità a priori alle probabilità a posteriori. La portata di questo teorema è molto vasta, costituendo la base dell'induzione statistica in ogni situazione, nel campo scientifico, tecnico, sociale, ecc., in cui mediante un'osservazione sperimentale si vuole valutare la validità di più ipotesi alternative. Le possibilità di applicazione, però, sono limitate dal fatto che spesso è difficile valutare le probabilità a priori delle ipotesi considerate.