Cap. V

Elementi di probabilità e statistica

 

Il concetto di probabilità sembra del tutto ignoto agli antichi, malgrado si sia voluto trovare qualche cenno di ragionamenti in cui esso è implicitamente presente. Anche nei giochi d'azzardo, per esempio con dadi o astragali, sembra che i punteggi fossero completamente slegati dalla probabilità dei vari risultati.
I primi studi conosciuti di questioni di probabilità si riferiscono al gioco dei dadi e compaiono nel libro De aleae ludo (Il gioco dei dadi) di Girolamo Cardano. L'effettivo inizio della moderna teoria delle probabilità, però, deve farsi risalire ad una corrispondenza tra i matematici francesi Pascal e Fermat, originata intorno al 1650 da problemi posti a Pascal da un accanito giocatore d'azzardo, il cavaliere de Méré. Essi disputavano su problemi del tipo:

Gettando un dado otto volte, un giocatore deve tentare di fare uno, ma dopo tre tentativi non riusciti il gioco viene interrotto. In che misura ha diritto alla posta?

Né Pascal né Fermat diedero una stesura sistematica ai loro risultati, ma nel 1657 Huygens pubblicò un trattato, De ratiociniis in ludo aleae (Sui ragionamenti nel gioco dei dadi), che era stato ispirato dalla corrispondenza dei due francesi.

Accanto all'applicazione del calcolo delle probabilità al gioco dei dadi, al problema dei punti, all'estrazione di palle di diverso colore da un sacchetto e ad altri giochi, compare, intorno al XVII secolo, la matematica attuariale: l'applicazione del calcolo delle probabilità alle attività assicurative, specialmente per ciò che riguarda le assicurazioni sulla vita. Basandosi su ipotesi (fissate alla luce di esperienze passate e anticipando tendenze future) inerenti ai tassi di mortalità, ai salari, ai tassi di interesse e ai dividendi, la matematica attuariale si prefigge di "predire" risultati futuri. Alla base di questa disciplina vi è il concetto di "tavole di vita", il primo esempio delle quali fu pubblicato da John Graunt nel suo Natural and Political Observations (1662), che era basato su una analisi statistica delle Tabelle di Mortalità Londinesi. Il principale scopo di queste tavole era quello di avvertire la gente quando stava per cominciare un'epidemia, così da dare il tempo alla popolazione di abbandonare il paese. James Howell aveva già usato le Tabelle di Mortalità di Londra e di Amsterdam per dedurre che la seconda città era meno popolata della prima; ma Graunt fu il primo a dimostrare come la statistica avrebbe potuto portare ad una serie di interessanti conclusioni. Per esempio, valutò che la popolazione di Londra era costituita da circa 384000 unità, contro il milione comunemente assunto. Soprattutto, egli produsse la prima vera tavola di vita, che mostrava, per ogni 100 bambini concepiti, quanti raggiungevano le età successive. Quindi applicò questa tavola, anticipando il metodo delle popolazioni stazionarie, per stimare il numero degli uomini che sopravvivevano alle diverse età.
Anche il matematico Jan De Witt si interessò a queste questioni, riunendo i suoi interessi di statista nel Trattato sulle rendite vitalizie (1671), che prese spunto, forse, dal breve saggio di Huygens sulle probabilità. Nel suo Trattato, De Witt introdusse quella nozione che oggi viene descritta come speranza matematica e prese in considerazione il problema della rendita annuale dell'ultimo sopravvissuto tra due o più persone.

Il primo volume veramente importante sulla teoria della probabilità è comunque Ars conjectandi [65] (Arte di congetturare) di Jacques Bernoulli, pubblicato nel 1713, otto anni dopo la morte dell'autore. Di fatto, il trattato di Huygens fu riportato come la prima delle quattro parti di cui si componeva l'Ars conjectandi, insieme a un commento di Bernoulli. La seconda parte presentava una teoria generale delle permutazioni e delle combinazioni [66], resa più facile dalle formule binomiale e polinomiale. Vi troviamo la prima dimostrazione completa della formula del binomio [67] per potenze intere positive. La dimostrazione era basata sull'induzione matematica, metodo che Bernoulli aveva riscoperto leggendo l'Arithmetica infinitorum di Wallis.
Conteneva anche i cosiddetti "
numeri di Bernoulli" [68]. Questi fecero la loro prima comparsa come coefficienti di una formula ricorsiva per trovare le somme delle potenze degli interi: oggi però essi trovano applicazione in molti altri settori. La formula era scritta da Bernoulli così:

dove indica la somma delle c-esime potenze dei primi n interi positivi e le lettere A, B, C, ... (i numeri di Bernoulli) sono i coefficienti del termine in n delle corrispondenti espressioni per , , , ... . I numeri di Bernoulli sono utili per scrivere gli sviluppi in serie di funzioni trigonometriche e iperboliche. E' facile verificare che i primi tre numeri sono , e .
La terza e la quarta parte dell'Ars conjectandi sono dedicate principalmente a problemi che illustrano la teoria della probabilità. La quarta parte contiene il famoso teorema che oggi porta il nome dell'autore e intorno al quale Bernoulli ebbe una fitta corrispondenza con Leibniz: la cosiddetta "
legge dei grandi numeri" [69]. Questa legge afferma che, se p è la probabilità di un evento, se m è il numero delle volte in cui l'evento si verifica in n prove, se è un numero positivo piccolo a piacere e se P è la probabilità che la disuguaglianza sia soddisfatta, allora , ossia, aumentando il numero delle prove, le differenze tra le frequenze relative e le probabilità possono, in valore assoluto, divenire minori di qualunque prefissato numero positivo, per quanto piccolo esso sia.
Della grande famiglia dei Bernoulli, non solo Jacques si occupò di probabilità, ma anche
Daniel e Nicholas, suoi nipoti. Nel periodo in cui i due fratelli si trovarono ad insegnare matematica a Pietroburgo, nelle loro discussioni emerse un problema che divenne famoso con il nome di "paradosso di Pietroburgo":

supponiamo che Pietro e Paolo si mettano a giocare a testa e croce con una moneta. Se il primo lancio dà testa, Paolo darà a Pietro una corona; se il primo lancio dà croce, ma si ottiene testa per la prima volta al secondo lancio, Paolo darà a Pietro due corone; se compare testa per la prima volta al terzo lancio, Paolo darà a Pietro quattro corone; e così via, la somma pagata se compare testa per la prima volta all'n-esimo lancio sarà di corone. Qual è la somma che Pietro dovrebbe pagare a Paolo perché questi accetti di giocare?

La speranza matematica di Pietro, data dalla serie

è evidentemente infinita, e tuttavia il senso comune suggerirebbe una somma finita molto modesta. Quando Georges Louis Leclerc, Conte di Buffon, fece una prova empirica della questione, trovò che in 2084 giochi Paolo avrebbe pagato a Pietro 10057 corone. Ciò significa che per qualsiasi gioco la speranza di Paolo, anziché essere infinita, è di fatto un po' meno di 5 corone. Il paradosso sollevato dal problema di Pietroburgo fu largamente discusso nel corso del XVIII secolo e ne furono date differenti spiegazioni. Daniel Bernoulli cercò di risolverlo mediante il suo principio della speranza morale, in base al quale sostituì le somme con . Altri preferirono risolvere il paradosso sottolineando che il problema era intrinsecamente impossibile in considerazione del fatto che la fortuna di Paolo era necessariamente finita e che pertanto egli non sarebbe stato in grado di pagare le somme illimitate che si sarebbero richieste nel caso di un lungo ritardo nella comparsa di testa.
La teoria della probabilità ebbe molti adepti all'inizio del XVIII secolo, e fra questi uno dei più importanti fu Abraham De Moivre. Nel 1711 pubblicò sulle Philosophical Transactions una lunga memoria sulle leggi del caso, e più tardi ne sviluppò il contenuto in un celebre volume, intitolato Doctrine of Chances (La dottrina dei casi), apparso nel 1718. La memoria e il volume contenevano numerose questioni sul gioco dei dadi, sul problema dei punti (con disuguali probabilità di vittoria), sull'estrazione di palle di diverso colore da un sacchetto e su altri giochi. Alcuni di questi problemi erano già apparsi nell'Ars conjectandi di Bernoulli, la cui pubblicazione precedette quella della Doctrine of Chances ma fu posteriore a quella della memoria di De Moivre. Il volume, nelle sue varie edizioni, presentava più di cinquanta problemi sulla probabilità, oltre a questioni relative a rendite vitalizie. In generale, De Moivre derivava la teoria delle permutazioni e delle combinazioni dai principi della probabilità, mentre oggi i ruoli appaiono solitamente rovesciati. Per esempio, per trovare il numero delle permutazioni di due lettere scelte fra le sei lettere a, b, c, d, e, f, egli partiva dall'osservazione che la probabilità che una particolare lettera sia la prima è e che la probabilità che un'altra lettera specifica sia la seconda è ; pertanto la probabilità che queste due lettere compaiano in tale ordine è . Da ciò concludeva che il numero di tutte le permutazioni possibili, prendendo due lettere alla volta, era 30. A De Moivre viene spesso attribuito il principio, pubblicato nella Doctrine of Chances, secondo cui la probabilità composta di un evento è uguale al prodotto delle singole probabilità; esso però era già implicito in opere precedenti.
De Moivre era particolarmente interessato a sviluppare per la teoria delle probabilità procedimenti generali. Una generalizzazione di un problema precedentemente formulato da Huygens viene di solito chiamato problema di De Moivre: calcolare la probabilità di ottenere un dato numero lanciando n dadi aventi ciascuno m facce. Alcuni dei suoi contributi alla teoria delle probabilità furono pubblicati in un altro volume, uscito nel 1730 con il titolo Miscellanea analytica. In un supplemento a quest'opera, De Moivre inserì alcuni risultati apparsi anche nel Methodus differentialis di James Stirling, pubblicato anch'esso nel 1730. Fra questi vi era l'approssimazione di n! con

solitamente nota come la "formula di Stirling" [70], e una serie, anch'essa recante il nome di Stirling, che mette in relazione ln n! con i numeri di Bernoulli.
Sembra che De Moivre sia stato il primo ad operare con la formula di probabilità

risultato che apparve con scarso rilievo in un opuscolo stampato privatamente nel 1737 con il titolo Approximatio ad summam terminorum binomii in seriem expansi. Questo lavoro, in cui veniva presentata per la prima volta la legge degli errori o curva degli errori, fu poi tradotto da De Moivre e inserito nella seconda edizione della sua Doctrine of Chances.
La teoria delle probabilità è debitrice anche a Laplace: a partire dal 1774 scrisse numerose memorie sull'argomento, raccogliendo infine i risultati via via raggiunti nel suo classico trattato Theorie analytique des probabilites [71] del 1812. Egli trattò questa teoria sotto tutti gli aspetti e ad ogni livello, e nel 1814 pubblicò il suo Essai philosophique des probabilites [72] per offrire una esposizione introduttiva al lettore non specializzato. La sua Theorie analytique, però, rivela la mano di un grande analista che conosce bene l'analisi superiore.

Alla base del calcolo delle probabilità stanno la legge delle probabilità totali e la legge delle probabilità composte. La prima riguarda la somma, o unione, di due eventi A e B ed è l'evento consistente nel verificarsi di uno almeno dei due eventi considerati. La seconda riguarda il prodotto, o intersezione, di due eventi A e B ed è l'evento consistente nel verificarsi di entrambi gli eventi considerati. Si basa sull'importante concetto di probabilità condizionata: dati due eventi A e B, la probabilità condizionata di A dato B, P(A/B), è la probabilità di A quando si considerano solo le prove in cui B si verifica. Dalle leggi considerate si deduce facilmente l'importante teorema di Bayes [73]: se l'evento E si presenta solo se si presenta uno degli eventi, a due a due incompatibili, , allora

Gli eventi vengono chiamati ipotesi, o cause, e costituiscono le diverse alternative che possono spiegare un evento E osservato sperimentalmente. Le probabilità sono dette probabilità a priori, prescindendo dal verificarsi o meno dell'evento E; le probabilità a posteriori esprimono le probabilità delle ipotesi dopo che si è osservato l'evento E. Il teorema di Bayes indica come l'osservazione di E modifica le probabilità delle ipotesi, facendo passare dalle probabilità a priori alle probabilità a posteriori. La portata di questo teorema è molto vasta, costituendo la base dell'induzione statistica in ogni situazione, nel campo scientifico, tecnico, sociale, ecc., in cui mediante un'osservazione sperimentale si vuole valutare la validità di più ipotesi alternative. Le possibilità di applicazione, però, sono limitate dal fatto che spesso è difficile valutare le probabilità a priori delle ipotesi considerate.