di Lorenzo Peccati


 

Questo articolo è stato presentatio nel maggio 2001 al X Colloquio FUR ( Foundations of Utility and Risk theory) nella Facoltà di Economia dell'Università di Torino.
Compare sul n. 41 di lettera matematica pristem.
 


Teoria (matematica) delle decisioni
e Diritto



 

Introduzione

L’idea di questo articolo nasce in parte da molti stimoli ricevuti prima e durante l’inizio della mia attività di docenza "Metodi Quantitativi" (cioè: Matematica e Statistica) nel corso di laurea in scienze giuridiche offerto dalla mia università.

Almeno per l’Italia l’iniziativa è decisamente innovativa e i risultati ottenuti sono molto promettenti per:

- l’interesse destato nelle ore di lezione o esercitazione;
- la qualità dei risultati d’esame;
- l’opportunità di riflettere insegnando e apprendendo su alcuni aspetti dell’attività legale, di fatto collegati con settori che, solo a prima vista, molto lontani.

Sui legami tra la matematica e le discipline giuridiche non sarebbe poi così difficile fare un po’ di folklore attraverso le persone: si potrebbe rammentare che erano giuristi Wilhelm Leibnitz, Pierre de Fermat o Arcangelo Genocchi (il maestro di Giuseppe Peano).
Tento però un’altra strada, che passa attraverso alcuni problemi, descrivendo brevemente alcuni esempi nei quali alcune conoscenze di Teoria (matematica) delle decisioni sono effettivamente utili per comprendere o risolvere comuni problemi in àmbito legale. Non ho alcun obiettivo di completezza, ma voglio solo sottolineare che la Teoria delle decisioni non è soltanto bella in sé (come matematica, ma è anche utile, e addirittura in questo campo).


Il problema del cardinale Newman

Questo problema ormai storico, riportato anche nel "Trattato’" di de Finetti [2], vol. 1, pp. 188-189, concerne il modo con cui s’accumulano prove indiziarie fino al punto d’indurre un magistrato ad emettere una sentenza di colpevolezza.
L’intuizione suggerisce che in presenza di più indizi, ciascuno con un suo valore probante positivo, il loro ruolo nella formazione dell’opinione del magistrato giudicante dovrebbe essere asimmetrico.
Ancora l’intuito suggerisce che quando l’insieme degli indizi supera una qualche soglia, la colpevolezza appare quasi certa.
Ho fatto in classe più volte esperimenti con i miei studenti ed è risultata condivisibile da una larga maggioranza che gli ultimi indizi, quelli che riescono alla fin fine decisivi, posseggono nei fatti valore probante superiore ai primi: è un po’ l’idea della goccia che fa traboccare il vaso.

Un esercizio simpatico consiste nel formalizzare il processo e conduce a scoprire che, piuttosto in contrasto con la comune intuizione, anche in questo campo vale la ferrea legge della produttività marginale decrescente, sicuramente famigliare al lettore non digiuno d’Economia.
Il valore probante ps dell’indizio es può esser tradotto in termini probabilistici come probabilità condizionale di colpevolezza C dato tale indizio:

ps = Pr (C | es )

La complementare probabilità condizionale d’innocenza I è:

qs = Pr (I | es ) = 1- Pr (C | es )=1- ps

Dato un insieme di indizi indipendenti e: = [e1, e2, ... ,en] la probabilità d’innocenza Qn finisce per essere il prodotto degli s qs con s=1..n, ovvero il prodotto delle s differenze (1-ps) con s = 1.. e pertanto il valore probante di e è:

Pn := 1 – Qn (1)

Nel caso d’uguale valore probante dei singoli indizi (ossia: p1 = p2 = ...= pn = p) si ha:

Pn = 1- (1-p) <n

Le differenze prime:

DeltaPn = Pn+1 - Pn = (1- p) n (2)

- (1- p) n+1 = p (1- p) n

sono decrescenti come annunciato.
Se, per esempio, p=0.03 abbiamo Pn=1-0.97n
La concavità di Pn conferma le conseguenze dell’equazione (2).
Si noti anche che, tornando all’espressione generale di Pn, ossia all’equazione (1), se si trovasse un indizio "che inchioda" le regole del calcolo delle probabilità forzano a decidere per la colpevolezza: se qualcuna delle probabilità ps è 1, l’equazione (1) fornisce Pn=1, come vuole il buon senso.


L’emanazione di sentenze come problema di decisione

Un ingenuo ad alcuni problemi centrali della giustizia potrebbe assegnare al magistrato il compito d’accertare la verità e, in conseguenza, condannare o assolvere l’imputato d’un processo. Il punto chiave è che tale opinione presuppone che sia possibile (ancorché non sempre facile) accertare quanto è realmente accaduto. Tutti sappiamo bene che in molti casi non è possibile giungere al vero. D’altro canto al magistrato è obbligatoriamente chiesto un verdetto.
Ciò significa pertanto che, una volta che siano radunate ed analizzate tutte le informazioni, il ruolo del magistrato non è altro che un problema di decisione in condizioni d’incertezza (magari con probabilità soggettive) del tipo:

Decisione /Status dell'imputato Colpevole Innocente
Condanna CL CI
Assoluzione AL AI
Probabilità Pr (Colpevolezza Pr (Innocenza)

ove gli acronimi nelle varie celle sono d’evidente significato.
Tale natura del problema non è generalmente dichiarata per le connotazioni negative comunemente attribuite a decisioni sotto incertezza e all’inevitabile natura soggettiva delle probabilità. La "foglia di fico" più popolare è la distinzione capziosa tra "verità giudiziale" e "verità" pura e semplice.
Considerazioni standard sulla soluzione di questo problema attraverso - mettiamo -l’approccio dell’utilità attesa consentono di mettere in evidenza molti aspetti importanti dell’attività svolta dal magistrato giudicante. A seconda del tipo di reato d’imputazione, con differenti pene nel caso di sentenza sfavorevole, con diversi pericoli sociali che potrebbero derivare dall’assoluzione d’un colpevole (si pensi al caso d’un serial killer), la rilevanza del costo degli errori (corrispondenti alle celle in diagonale secondaria) può essere diversa in diversi procedimenti giudiziari.
L
a flessibilità di questo modello basilare della Teoria delle decisioni può aiutare l’analisi d’un procedimento giudiziario.
L’uso di questo schema consente di contenere possibili distorsioni, quali quelle che vedremo oltre.


Il teorema di Bayes e la probabilità d’innocenza

L’atteggiamento mentale d’un teorico delle decisioni potrebbe essere utile per evitare punti di vista diffusi, ma estremamente poco fondati riguardo all’attività giudiziaria.
L’idea generalmente accettata che, fino al momento in cui la colpevolezza viene provata, un imputato deve essere considerato innocente, anche se originata da ben note e nobilissime posizioni ideologiche, è ovviamente errata dal punto di vista logico (probabilistico). È un modesto tentativo di porre vincoli in un problema di decisione in condizioni d’incertezza, senza riconoscerne tale natura, armeggiando con la logica del vero e del falso. Si noti inoltre che - ma si tratta di un’osservazione quasi di tipo estetico - che nel caso si sia forzati ad usare solo le categorie del vero e del falso, nel caso di colpevolezza s’incorre fatalmente in una "discontinuità logica". Mi guardo bene dal negare che tali discontinuità possano accadere, ma probabilmente non sono una buona descrizione del generico processo d’accumulazione d’indizi, tipico di questo contesto.
Conosciamo l’ineludibilità logica del Teorema di Bayes e altresì il fatto che una probabilità iniziale unitaria non può essere in alcun modo scalfìta da un’evidenza indiziaria di colpevolezza anche ricchissima.
È ben più chiaro e trasparente partire da un’opinione iniziale (antecedente la considerazione degli indizi disponibili) che assegni uguale probabilità a colpevolezza L e innocenza I:

Pr ( L ) = Pr ( I ) = 1/2

con l’idea che a priori non v’è alcuna ragione per privilegiare l’una o l’altra delle due possibilità.
L’evidenza indiziaria E conduce ad adeguare tali probabilità iniziali, non perché esse fossero errate, ma perché sintesi d’uno stato d’informazione ora mutato.
Le probabilità finali prodotte dal Teorema di Bayes sono:

Pr(H|E) = Pr(H)Pr(E|H)/Pr(E) con H = I,L

e possono essere usate nello schema della tabella precedente.


Uso giudiziario dei test d’ipotesi statistici

Questo punto è di particolare delicatezza sia sotto il profilo strettamente scientifico, sia per le conseguenze di un uso professionalmente ingenuo di tecniche statistiche molto popolari.

Partiamo dalla più semplice descrizione d’un problema statistico di controllo d’ipotesi: già in esso si possono intravedere i problemi (seri) che possono sorgere: sono assegnate due ipotesi H0, H1 circa il valore d’un parametro d non osservabile e una di esse è vera. È del pari assegnato un modello stocastico p(x|d) che fornisce la (densità di) probabilità di un insieme x d’osservazioni, condizionatamente al valore del parametro. Un test statistico è semplicemente una regola di decisione che associa ad ogni x l’ipotesi da prender per vera (H0 o H1).
L’ipotesi H0 è detta ipotesi nulla, mentre l’altra è detta in alternativa.
La regola di decisione può condurre a due tipi d’errore: gli errori di I specie conducono a rifiutare H0 quando essa sia vera. Gli errori di II specie consistono nell’accettare H0 quando essa sia falsa. Siano a e b le probabilità rispettive dei due tipi d’errore. Al variare della regola di decisione generalmente le due probabilità mutano in direzioni opposte. Generalmente una riduzione in a sarà "pagata" con un incremento di b e viceversa.
Probabilmente il modo più comune per affrontare tali problemi di controllo d’ipotesi s’inquadra nel cosiddetto "approccio classico all’inferenza" e consiste nello scegliere la regola di decisione che:

- rispettando la condizione che a stia sotto una soglia piuttosto bassa (per esempio a al ≤ 5% o 1%)

- minimizza b.

Se la dimensione del campione x è molto ampia, il valore minimizzato di b è come il valore di a decentemente piccolo e la regola di decisione indicata conduce generalmente a una risposta corretta. Se però la dimensione del campione è contenuta, è facile che la regola di decisione conduca ad accettare H0 in molti casi in cui essa è falsa. Ciò significa che in presenza di campioni non grandi la procedura è distorta a favore dell’ipotesi nulla e, per conseguenza, essa è rifiutata solo in presenza di dati in contrasto eclatante con essa. È un esercizio mostrare che scambiando di posto H0 e H1 , sulla base degli stessi dati, la risposta del test non si rovescia: vince sempre la partita l’H0 di turno.
Nella pratica della ricerca scientifica, usualmente l’ipotesi presa come nulla è la preferita da parte del ricercatore, spesso da lui stesso avanzata. Ciò spiega perché nelle scienze soft (per esempio in Economia) convivano più o meno pacificamente teorie inconciliabili, "provate" dagli stessi dati, a differenza di quanto accade nelle scienze hard (per esempio in Fisica).
Nel quadro d’un procedimento giudiziario può accadere del tutto naturalmente che il "campione" non sia di dimensione governabile, ma forzato dall’evidenza processualmente considerabile. Per esempio, nel classico problema del "riconoscimento del parlatore" (v. [6] o [7]) può accadere che soltanto la registrazione d’una breve conversazione telefonica sia a disposizione.
In tal caso è chiaro che la scelta iniziale e arbitraria dell’ipotesi nulla può nei fatti determinare la decisione finale: se H0 è "Innocente" probabilmente il test dirà "Innocente!", ma se H0 è "Colpevole" lo stesso test, applicato agli stessi dati, dirà "Colpevole!".
Attraverso l’approccio Bayesiano all’inferenza, forse meno diffuso nella pratica, ma molto meglio fondato dal punto di vista logico ed empirico, il problema sarebbe strutturato come problema di decisione e includerebbe sia le probabilità iniziali sia il costo degli errori di I e II specie.
Questo è un esempio significativo dei vantaggi che derivano dall’impostazione d’un problema di decisione secondo i canoni della Teoria delle decisioni. Tali vantaggi si concretizzano nell’eliminazione di possibili conseguenze negative sistematiche, determinate da un approccio rozzo alla questione (com’è il caso del controllo classico d’ipotesi).


La definizione e gli usi del Valore a Rischio (VaR)

Passiamo a un altro interessante campo di contatto tra la teoria delle decisioni e gli studi di natura legale: strumenti che appartengono alla preistoria della teoria delle decisioni sono stati recentemente accolti ufficialmente in seno all’ordinamento giuridico di molti Paesi per uniformare i criteri di controllo della rischiosità delle posizioni assunte dagli intermediari finanziari. La diffusione di tali strumenti come mezzi di controllo del rischio finanziario ha naturalmente portato a chiedersi se essi potessero anche servire per prendere decisioni, chiudendo così l’anello...
Pensiamo a una posizione finanziaria (per esempio un portafoglio di attività finanziarie: azioni, obbligazioni,...) a una certa data 0, con valore di mercato X0. Si sceglie un dato "periodo di detenzione" del portafoglio stesso (nella pratica finanziaria un paio di settimane) e sia X il valore aleatorio della posizione in capo al periodo di detenzione. Sia F(x): = Pr(X <=x) la funzione di ripartizione di tale valore futuro. Assumiamo anche che F sia strettamente crescente e continua sul supporto di X. Si scelga infine una probabilità a giudicata "piccola" (nella pratica a=5% o 1%). Il Valore a Rischio v' è la parte di X0 che potrebbe esser persa durante il periodo di detenzione solo con la (piccola) probabilità a:

v' = X0 - F -1 (a)

Una definizione di valore a rischio in alternativa, praticamente rilevante e sostanzialmente equivalente alla prima sarebbe:

v" : = F -1 (a)

ossia, la soglia sotto la quale X cade difficilmente. Tali due quantità sono ovviamente legate da:

v" = X0 - v'

Alcune osservazioni sulla scelta del parametro valore a rischio paiono d’interesse:

- la quantità v" è ben conosciuta nella teoria delle decisioni: è la soglia corrispondente al livello a della probabilità di rovina;

- il VaR non mette in conto la forma della "coda" della distribuzione di probabilità di X, ma semplicemente della sua area ossia della probabilità che s’incorra in una grave perdita, ma ignora "quanto grave" essa possa essere;

- almeno come ingrediente il VaR può essere usato per costruire modelli di ottimizzazione delle decisioni di portafoglio (v. [4]);

- si può mostrare che l’uso del VaR nella costruzione di regole di minima capitalizzazione necessaria per poter aprire determinate posizioni può condurre a conseguenze sgradevoli (v. [1]) poiché il frazionamento d’una posizione X, che richiederebbe capitale C proporzionale a v', in due posizioni X1, X2, con analoghi rispettivi minimi di capitalizzazione C1 , C2 potrebbe condurre a "risparmiare" capitali poiché

C > C1 + C2 (3)

Tale riduzione di garanzie sarebbe ovviamente pericolosa.

Un sistema d’assiomi molto pulito (introdotto in [1]) consente di definire "misure di rischio coerenti", che meglio tengono conto della forma della "coda" della distribuzione e non soffrono dell’inconveniente (3). Quest’ultimo contributo è di nuovo un bel pezzo di teoria delle decisioni interessante per costruire sistemi di regole migliori degli esistenti. La spesso scarsa famigliarità di giuristi e di manager d’alto livello con questi tipi di discipline matematiche costituisce ovviamente un ostacolo non trascurabile alla sostituzione in molti ordinamenti giuridici d’uno strumento peggiore con uno migliore (e noto).


Conclusioni

Quest’appunto tenta una rassegna di alcune soltanto tra le numerose e interessanti connessioni tra discipline matematiche e giuridiche. Altri esempi potrebbero essere portati sia con riferimento al diritto privato, come nel calcolo di risarcimenti (recentemente analizzato in [9]), sia con riferimento al diritto pubblico (analisi matematica dei sistemi elettorali).

Sarebbe molto positivo uno sviluppo ricco di questo settore di confine, sia come fonte di nuovi problemi significativi che possono interessare i matematici applicati sia per garantire una sempre migliore qualità degli usi della matematica nella costruzione dei sistemi normativi.


Bibliografia

[1] P. Artzner, F. Delbaen, J.-M. Eber, D. Heath (1999) Coherent Measures of Risk, Mathematical Finance, 9/3, pp. 203-228

[2] B. de Finetti (1970) Teoria delle probabilità, 2 volumi, G. Einaudi, Torino

[3] M.O. Finkelstein (1978) Quantitative Methods in Law, The Free Press, New York

[4] R. Kast, E. Luciano, L. Peccati (1999) Value-at-Risk as a decision criterion, submitted

[5] L. Peccati (1999) Metodi quantitativi per giuristi, EGEA, Milano

[6] L. Peccati, R. Piazza (1990) Applicazione del Teorema di Bayes a un problema giudiziario, Atti del quattordicesimo Convegno AMASES, Pescara

[7] L. Peccati, R. Piazza (1991) Applicazione del Teorema di Bayes al Problema del Riconoscimento del Parlatore, Atti del XIX Convegno Annuale dell’Associazione Italiana di Acustica, Napoli

[8] A. Piazza (1979) La diagnosi di paternità. Dall’esclusione del certo all’arte del probabile, Rivista Italiana di Medicina Legale, I, 4, ott.-dic.

[9] C. Skogh, L. Tibiletti (1999) Compensation of Uncertain Lost Earnings, European Journal of Law and Economics, 8, pp. 51-61