Operazioni e calcoli per sbancare un Casinò alla roulette
by Giuseppe Brindisi


PREMESSA
L'idea di scrivere queste note è seguita alla notizia di cronaca dell'arresto e successivo rilascio di tre giocatori che, acompagnati ad una bellissima slava, hanno sbamcato in tre giorni il più famoso casinò di Londra. La polizia inglese ha accertato che gli indagati hanno vinto, legalmente, 2.000.000 di sterline, impiegando un misuratore di velocità ed un telefono-cellulare computer. I tre rilevavano la velocità iniziale della pallina lanciata dal croupier e puntavano con successo sui numri di probabile uscita. Visto che velocità iniziale di un corpo e traiettoria-distanza sono correlate da funzione balistica, (parabolica nel vuoto, molto più complessa nell'aria e con la presenza dell'attrito della roulette), è possibile creare un legame logico-probabilistico tra le posizioni dei numeri raggiunti dalla pallina con i tiri sperimentali e la relativa velocità iniziale. In tal modo un numero sufficiente di osservazioni consente di individuare la probabilità che compete a gruppi di numeri raggiunti dalla pallina in relazione a gruppi di velocità iniziali addensate in un intorno calcolato.. Il metodo che segue è basato su tali criteri. Attualmente il gioco della roulette consente di puntare anche a pallina lanciata fino allo stop del "rien ne va plus" del roupier. Di certo, dopo lo sbancamento di questi giorni- del tutto legale- i casinò o vieteranno di usare strumenti  tecnologici di osservazione o aboliranno la possibilità di puntare dopo il lancio della pallina.
_______________________________________________________________________

1. Munirsi di un misuratore  di velocità (su tecnologia laser) di un oggetto come la pallina della roulette. (Ottenere la collaborazione di un amico esperto in calcolo della probabilità, di un altro amico specializzato in in calcolo numerico e programmazione)

2. Stabilite il numero delle misure  della velocità iniziale della pallina da effettuare, tenedo conto che :  L'approssimazione (a) che volete ottenere per puntare su determinati numeri è uguale all'Errore Probabile  diviso la radice quadrata del numero di misure effettuate N. Dalla formula ricaverete che N= EP al quadrato, diviso  A al quadrato.

3. Effettuate, ad esempio, 100 misure

4 Raggruppatele in insiemi cui conferire la propabilità che lo scarto quadratico medio non superi l'approssimazione del misuratore di velocità laser

5. MISURATE LA VELOCITA' della pallina per la giocata e puntate somme proporzionate sui numeri intorno a quello cui avrete conferito la massima probabilità di uscita

6. FATE UN NUMERO DI GIOCATE ELEVATO PERCHè LA RISPONDENZA MIGLIORA CON IL NUMERO DI GIOCATE





Compendio di Teoria degli Errori
di Michele T. Mazzucato
L'errore non è mai ritenuto più utile della verità; ma spesso dell'incertezza sì.

Opus postumum (1882-1884)
Immanuel Kant (1724-1804)
Nelle scienze sperimentali l'errore è la differenza fra il valore reale di una grandezza e il valore ottenuto mediante una serie di osservazioni di essa. La

Teoria degli Errori di KARL FRIEDRICH GAUSS (1777-1855), con il metodo da lui ideato dei minimi quadrati (1794), permette di valutare con buona
approssimazione l'entità dell'errore causale dovuto alle osservazioni. In questo saggio si parlerà con particolare riferimento alle osservazioni dirette e con eguale precisione o aventi lo stesso peso. tipi di errori
1) materiali o grossolani
2) sistematici o regolari o strumentali
3) accidentali o irregolari o casuali
caratteristiche degli errori
Gli errori veri e quindi i valori veri di una grandezza osservata non possono mai essere noti esattamente, tuttavia sperimentalmente risulta che:
1) gli errori piccoli si presentano più frequentemente degli errori grandi, ossia gli errori piccoli sono più numerosi di quelli grandi;
2) l'insieme degli errori positivi risulta circa uguale all'insieme degli errori negativi sì ché, la loro somma algebrica risulta quasi nulla: da ciò segue il
verificarsi di una notevole simmetria nella loro distribuzione rispetto al valore zero;
3) oltre un certo limite gli errori non esistono più, come dire che si può individuare un limite massimo per gli errori, dovuto alla somma degli effetti
conseguenti a tutte quelle cause che agiscono nello stesso senso. natura delle osservazioni
1) osservazioni dirette: sono quelle che permettono di determinare il valore della grandezza oggetto delle osservazioni;
2) osservazioni indirette: sono quelle che permettono di determinare il valore di una grandezza mediante il valore di altre grandezze alla prima legate da ben definite relazioni di dipendenza;
3) osservazioni condizionate: sono quelle che permettono di determinare il valore della grandezza oggetto delle osservazioni imponendo a esse il rispetto di determinate condizioni.

osservazioni dirette di eguale precisione o con lo stesso peso
Sono quelle osservazioni le cui misure vengono eseguite:
1) dallo stesso operatore;
2) con gli stessi strumenti rettificati;
3) nelle stesse condizioni ambientali;
4) seguendo il medesimo metodo di misura.
In tali condizioni le osservazioni risultano influenzate soltanto da errori causali. Le osservazioni dirette di diversa precisione o con diverso peso si
hanno quando non venga soddisfatta una o più delle condizioni precedenti. La Teoria degli Errori, come campo di applicazione degli errori casuali, comporta due notevoli risultati:
1) la determinazione del valore più probabile della misura di una grandezza di cui si siano eseguite n osservazioni;
2) il grado di precisione che si può raggiungere con le n osservazioni eseguite.

variabilità
E' l'attitudine che hanno i fenomeni a variare, assumendo differenti modalità quantitative e qualitative. Lo studio della variabilità è della massima
importanza in statistica in quanto i valori medi forniscono soltanto misure sintetiche delle intensità dei fenomeni statistici, ma non possono misurare e
sintetizzare le differenze fra le diverse manifestazioni dei fenomeni. La variabilità viene studiata attraverso gli indici di variabilità che possono
essere:
a) assoluti
- escursione o campo di variazione
- scarto semplice medio
- scarto quadratico medio (chiamato anche indice di dispersione)
- errore probabile
- semidifferenza interquartile
- differenza media
b) relativi
- scostamento medio relativo
- indici di concentrazione
medie
Le medie sono classificabili in due grandi categorie:
a) medie ferme
- aritmetica o empirica
- geometrica
- quadratica
- armonica
b) medie lasche
- moda
- mediana
- quartile
quartile
Percentuale speciale che si ottiene allorquando una serie di n termini viene divisa in quattro parti uguali. I quartili si usano in statistica per stabilire
la percentuale di termini di una serie assegnata. La differenza tra terzo e primo quartile si chiama differenza interquartile ed è uno degli indici di
distribuzione. Inoltre si dicono rispettivamente primo, secondo e terzo quartile q1, q2 e q3, che dividono un dato insieme n elementi in modo tale che detto a il più piccolo e b il più grande di essi, sia n/4 il numero degli elementi compresi
in ciascuno degli intervalli aq1, q1q2, q2q3 e q3b.

principio fondamentale della Teoria degli Errori
Il valore più probabile di una grandezza, misurata n volte con osservazioni dirette e aventi lo stesso peso, è la media aritmetica o empirica dei valori
delle n misure.

media aritmetica
n) x + ... + x + x + (x = x n 3 2 1

media geometrica
1/n
n 3 2 1 g ) ·...·x ·x ·x (x = x

media quadratica
1/2
2
n
2
3
2
2
2
1
q ) n
x + ... + x + x + x ( = x
media armonica
n 3 2 1
h
x
1 + ... + x
1 + x
1 + x
1
n = x
fra queste medie esiste la seguente relazione
q g h x < x < x < x
Lo scarto o scostamento o residuo o errore assoluto o scarto tipico o deviazione standard è la differenza tra ogni singola osservazione e la sua media aritmetica
x - x = s i i
gli scarti possono presentarsi sia con il segno positivo sia negativo.

proprietà degli scarti
1) la somma algebrica degli scarti è nulla
∑n
1
i i 0 = s
2) la somma dei quadrati degli scarti rispetto alla media aritmetica è minima
∑n
1
2
i i min = s
Come conseguenza di questa seconda proprietà, la Teoria degli Errori, assume anche il nome di Teoria dei minimi quadrati, la quale tratta il metodo della
compensazione degli errori casuali. L'errore quadratico medio o errore medio o scarto quadratico medio di una
osservazione è dato:
1/2
2
n
2
1 - n
2
3
2
2
2
1 ) 1 - n
s + s + ... + s + s + s ( ± = µ
Il segno ± indica la presenza degli errori casuali positivi e negativi. Esso esprime il grado di precisione delle singole osservazioni. Quanto più piccolo
risulta, tanto più precise si possono considerare le osservazioni effettuate. Inoltre, permette di determinare il limite massimo oltre il quale, nella
pratica, gli errori di un insieme di osservazioni non possono più essere accettate come casuali. L'esperienza dimostra che gli errori, ossia gli scarti
dalla media, non superano, in valore assoluto, il:
68.26 % (70 %) err ≤ ± µ
95.44 % (95 %) err ≤ ± 2µ
99.73 % (100 %) err ≤ ± 3µ
Ne consegue che la possibilità che una misura contenga un errore superiore al triplo dell'errore medio è assai limitata, per cui questo valore viene assunto come errore massimo temibile o tollerabile o tolleranza: T= ± 3µ in base a ciò si devono escludere tutte le misure i cui scarti dalla media
superano la tolleranza. L'errore quadratico medio della media aritmetica (eqm) o errore medio della media o errore standard è dato:
1/2
2
n
2
1 - n
2
3
2
2
2
1
m ) 1) - n(n
s + s + ... + s + s + s ( ± = n
µ ± = µ
Esso esprime l'imprecisione della media aritmetica e può essere evidentemente in eccesso o in difetto. Inoltre, risulta tanto più piccolo quanto più numerose sono le osservazioni eseguite. Dalla relazione precedente è facile ricavare il
numero delle osservazioni da eseguire quando è prefissato il suo valore:
2
m
2
µ
µ = n
Pertanto quando di una grandezza si eseguono n osservazioni dirette aventi lo stesso grado di precisione e le stesse rientrano nella tolleranza, la loro media aritmetica viene assunta come valore della grandezza e l'errore medio della
media ne esprime l'attendibilità, il valore più probabile della misura è:
m x µ ± x = V
Si deve porre la massima attenzione nel non considerare l'errore medio della media come limite massimo dell'errore commesso o come valore dell'errore medio.
La Teoria degli Errori conduce al concetto che i risultati non sono mai noti, ma indicano soltanto un grado maggiore o minore di probabilità.
L'errore relativo rappresenta l'entità dell'errore probabile commesso in relazione all'intera grandezza misurata. In definitiva l'errore relativo è più
significativo dell'errore assoluto perché il grado di precisione di una osservazione non è dato dall'errore in quanto tale, ma l'entità che esso assume
in relazione alla grandezza misurata.

errore relativo
x µ
= µr
errore relativo percentuale
x µ
100 = µ%
L'escursione o campo di variazione è la differenza tra il massimo e il minimo dei valori osservati:

min max x - x = esc
In un riferimento cartesiano, riportando in ascissa il valore con il segno degli errori e in ordinata il numero delle misure che risultano affette da tale
errore, si ottiene la curva di GAUSS o curva gaussiana o curva degli errori o curva delle probabilità o curva normale. Essa è una curva piana trascendente
dalla caratteristica forma a campana ed ha notevole importanza pratica in quanto rappresenta graficamente una particolare funzione probabilistica di una
variabile aleatoria data dall'espressione δ X)/2 - (x - π 2 δ1 = y
dove X è il valore medio della distribuzione e δ è lo scarto quadratico medio della variabile aleatoria (che corrisponde alla semilunghezza della campana
valutata nel punto di flesso). La curva è simmetrica rispetto al suo massimo, è asintotica rispetto all'asse delle ascisse e per X tendente all'infinito e
presenta due punti di flesso di ascissa X= X ± δ. Classificando gli N individui della popolazione secondo l'argomento o attributo
X, raggruppando quegli individui in possesso del medesimo valore argomentale e contandone il numero in ciascun gruppo, numero che indicheremo con N, possiamo  scrivere queste due serie in corrispondenza biunivoca:
| x1 x2 x3 … xn
X |
| f1 f2 f3 … fn
[1] ∑ n
1
i i N = f
dove le fi rappresentano il numero degli individui compresi nelle classi
definite dai valori argomentali corrispondenti xi. Le fi, così definite, prendono
il nome di frequenze assolute. Se ora costruiamo altre due serie, di cui la
prima identica alla precedente e la seconda costituita dalle varie fi divise per
il numero totale di individui N, otteniamo:
| x1 x2 x3 …… xn
X |
| f1/N f2/N f3/N …… fn/N
[2] ∑n
1
i
i 1 = N
f
dove le fi/N prendono il nome di frequenze relative Le due relazioni ∑ifi= N e ∑ifi/N= 1 servono a garantire che tutta la popolazione
è stata analizzata. La X costruita come si è detto e rappresentata come in [1] o in [2] si chiama variabile statistica ad una dimensione o variabile statistica
semplice. Scelto un sistema di assi cartesiani normali, dove in ascissa si dispongono i
valori argomentali xi, ordinati in modo crescente, ed in ordinata i valori delle frequenze assolute fi oppure quelle relative fi/N corrispondenti ai valori xi, si
può costruire un diagramma detto diagramma di frequenza, in una assegnata scala.
indici rappresentativi
1) media: momento di primo grado (k=1) della variabile rispetto al polo θ=0
∑n
1
i
i i N
f x = M
2) valore quadratico medio: momento di secondo grado (k=2) della variabile
rispetto al polo θ=0
∑n
1
i 2
i i 2 N
f x = M
3) varianza: momento di secondo grado (k=2) della variabile rispetto al polo θ=M
∑n
1
i 2
i i
2
N
f M) - (x = δ
dove la differenza xi-M prende il nome di scarto.
La radice quadrata della varianza (δ2)1/2= ± δ prende il nome di scarto
quadratico medio o scarto standard. Inoltre, fra i tre indici sopra descritti
corre la relazione fondamentale:
2
2
2 M - M = δ
La media M è un indice di posizione, cioè determina la posizione verso cui si
addensa la popolazione cui la variabile statistica si riferisce, sulla scala dei
valori argomentali. La varianza δ2 è un indice di variabilità, cioè misura la
dispersione dei valori dell'argomento posseduti dagli individui, intorno al
valore medio.
altri indici
Particolare rilievo tra le medie lasche (sono così dette le medie che tengono
conto solo di alcuni termini della seriazione) hanno la moda e la mediana. La
moda o norma o valore di massima frequenza è il valore che nella seriazione
compare o compaiono un numero di volte maggiore rispetto a tutti gli altri. E'
un valore argomentale per cui è massima la frequenza. La mediana è il valore che
si ottiene, scrivendo i termini della seriazione in ordine crescente,
considerando: il valore centrale se i termini sono in numero dispari oppure un
valore compreso tra i due valori centrali se i termini sono in numero pari. E'
un valore argomentale che divide l'istogramma in due aree uguali.
esempio numerico
N≡n xi si si2 xi2 fi fi/N
1 101 0 0 10201 1 1/6
2 100 -1 +1 10000 3 3/6
3 100 -1 +1 10000 - ---
4 103 +2 +4 10609 1 1/6
5 100 -1 +1 10000 - ---
6 102 +1 +1 10404 1 1/6
n ∑
xi 1
= 606
µ
= ± 1.26
T
= ± 3.79
n ∑
si 1
= 0
µm
= ± 0.52
X
= 101
n ∑
si2 1
= 8
Vx
= 101 ± 0.52
Xg
= 100.993 4314
n ∑
xi2 1
= 61214
µr
= 0.012
Xq
= 101.006 6004
n ∑
fi 1
= 6
µ%
= 1.25 %
Xh
= 100.986 8952
n ∑
fi/N
1
= 1
n
= 6
M = 101
M2 = 10202.33
δ2 = ± 1.33
δ2= M2-M2 = ± 1.33
δ = ± 1.15
M= (101·1/6 + 100·3/6 + 102·1/6 + 103·1/6)=
M= 101
M2= 1002·3/6 + 1012·1/6 + 1022·1/6 + 1032·1/6=
M2= 10202.33
δ
2= (100-101)2·3/6 + (101-101)2·1/6 + (102-101)2·1/6 + (103-101)2·1/6=
δ2= ± 1.33
Vx= M ± δ = 101 ± 1.15
nota: nelle formule di µ e δ2 al denominatore si pone n quando questo è grande,
altrimenti si pone n-1 quando n è piccolo.
Bibliografia
AA.VV., Enciclopedia delle matematiche elementari e complementi, Hoepli Milano 1936
PICCATO A., Dizionario dei termini matematici, Rizzoli Milano 1987
TAYLOR J.R., Introduzione all'analisi degli errori, Zanichelli BO 1986
ZWIRNER G., Istituzioni di matematiche, CEDAM Padova 2 voll. 1975-1977