DECISIONI, Teoria delle

Enciclopedia Italiana - IV Appendice (1978)

DECISIONI, Teoria delle

Ludovico Piccinato

Si ha un problema di d. quando si deve scegliere tra differenti alternative, tenendo conto delle conseguenze che possono essere "certe" o "incerte". Nel primo caso si hanno i "problemi" di d. in condizioni di "certezza", che risultano immediatamente formulabili come problemi di ottimizzazione deterministica. Nel secondo caso, che è quello più propriamente esaminato nell'ambito della t. delle d., si possono considerare differenti possibilità secondo il punto di vista assunto nei riguardi del concetto di "probabilità". Nell'impostazione soggettivista, per es., è sempre possibile assegnare una distribuzione di probabilità in corrispondenza a qualunque situazione d'incertezza. In tal caso si riesce a collegare a ogni d., usando opportuni valori medi, una quantità numerica certa, che può essere considerata come una corretta valutazione della situazione aleatoria data. Ci si riporta pertanto a un problema puramente deterministico. Se si adottano invece concezioni più restrittive sulla probabilità, per es. le classiche concezioni "oggettivistiche", le conseguenze incerte non sono in generale probabilizzabili e risulta più complicato il processo di valutazione delle singole decisioni. Secondo una terminologia diffusa, si parla di situazioni di "rischio" quando le conseguenze delle scelte sono valutabili probabilisticamente, e di situazioni di "incertezza" quando non lo sono.

Elemento essenziale di gran parte delle applicazioni della t. delle d. è la considerazione esplicita del processo di acquisizione delle informazioni, che viene formalizzato nel modello matematico. Originariamente la t. delle d. è stata formulata da A. Wald (1939) con l'obiettivo di fornire uno schema concettuale capace di unificare la vasta tematica dell'inferenza statistica. Per alcuni aspetti formali la t. delle d. si ricollega invece ai primi elementi della "teoria dei giochi" (v. giochi, teoria dei, in questa App.) introdotta da J. von Neumann già nel 1928. Le due teorie, che differiscono essenzialmente per il fatto che nella teoria dei giochi si assume la presenza di più "giocatori" in conflitto tra loro, hanno peraltro avuto uno sviluppo quasi contemporaneo e, soprattutto in un primo periodo, denso di reciproche influenze. Si può oggi asserire che la t. delle d. fornisce strumenti di analisi teorica utili ed effettivamente impiegati nei più diversi settori sia dell'elaborazione concettuale sia delle applicazioni pratiche, dalla statistica matematica all'economia, dall'ingegneria (teoria del controllo, affidabilità) alle scienze agrarie, alla geologia applicata, alla gestione aziendale, e in generale ai più vari problemi concreti della ricerca operativa.

Modello matematico. - Si indichi con Δ = {δ} l'insieme delle possibili d., con Θ = {ϑ} l'insieme delle circostanze (dette "stati di natura") estranee a colui che decide e capaci di determinare con esattezza le conseguenze della d. prescelta, con Lδ(ϑ) (detta "funzione di perdita") una valutazione numerica delle conseguenze della d. δ quando lo stato di natura è ϑ. S'intende che, fissato ϑ, una d. è preferibile quando la perdita corrispondente è minore (si potrebbe invece considerare una funzione da massimizzare). Escludendo i problemi in condizioni di certezza, in cui quindi è noto quale sia lo stato di natura operante, l'elemento ϑ sarà generalmente incognito; nell'ambito di una concezione ampia della probabilità sarà però sempre possibile stabilire una legge di probabilità P su Θ atta a rappresentare la totalità delle informazioni disponibili. A ogni d. δ ∈ Δ resta così associata una perdita aleatoria Lδ, avente una distribuzione di probabilità determinata da P. Se si considera invece Θ non probabilizzabile, a ogni δ risulta ovviamente associata l'intera funzione Lδ(ϑ). Qualunque sia l'impostazione adottata, è necessario introdurre un "criterio di ottimalità" capace d'indicare la d. preferibile. Sono stati introdotti sia criteri che utilizzano la legge P (criteri detti "bayesiani"), sia criteri che non utilizzano P.

Per semplicità, usiamo notazioni corrispondenti al caso che Θ sia un intervallo reale e P si possa esprimere tramite una funzione di densità di probabilità p(ϑ); ovviamente i concetti sono largamente generalizzabili. Il più classico criterio bayesiano consiste nel minimizzare l'espressione M(δ) = ∉Θ Lδ(ϑ) p(ϑ) dϑ (cioè E [Lδ(ϑ)] dove E è l'operatore ("speranza matematica"). Si può dimostrare che qualunque sistema di preferenze "coerente", riferito all'insieme delle distribuzioni di probabilità sulle conseguenze della d. δ (ottenuto variando δ in Δ, per una P fissata) può sempre esprimersi tramite una funzione Lδ(ϑ) tale che la scelta ottima è proprio quella che minimizza M(δ). Tale problematica si ricollega alla "teoria dell'utilità", in particolare all'impostazione di J. von Neumann e O. Morgenstern (1944) cui si rifà generalmente la letteratura moderna, e che appare quindi strettamente connessa alla t. delle decisioni. Quando le conseguenze delle scelte non sono misurate in termini di utilità il procedimento basato su M(δ) perde la sua principale giustificazione, anche se altre, meno vincolanti, possono essere richiamate. Come criteri di ottimalità non bayesiani si cita il criterio del "minimax", cioè la minimizzazione di sup Lδ(ϑ), ispirato alla teoria dei giochi, e la minimizzazione di ∉Θ Lδ(ϑ) dϑ che, pur avendo un'ovvia interpretazione diretta e non probabilistica, può considerarsi formalmente un caso particolare del criterio fondato su M(δ).

Alcune elaborazioni di rilevante interesse sono possibili, in generale, anche prescindendo dall'uso di uno specifico criterio di ottimalità. Lo strumento principale per questo tipo d'analisi è un ordinamento parziale sulla spazio Δ basato sul fatto che se Lδ(θ) ≤ Lδ,(θ) per ogni θ, allora, qualunque criterio di ottimalità s'intenda adottare, δ΄ non potrà essere preferibile a δ. Lo studio di tale ordinamento ha condotto a numerosi risultati interessanti, tra gli altri la dimostrazione (Wald) che, sotto ampie condizioni e qualunque criterio di ottimalità si adotti, l'elemento ottimale è sempre una d. bayesiana, cioè minimizza M(δ) in corrispondenza di un'opportuna scelta di P. Ciò mette in luce l'importanza della classe delle d. bayesiane, anche prescindendo dalla controversa questione circa l'estensione della probabilità a ogni tipo di evento.

Problemi di decisione statistica. - Un'importante categoria di problemi di d. è quella dei problemi "statistici", in cui cioè è formalizzata l'acquisizione di informazioni parziali relative all'incognito stato di natura ϑ. Si suppone più esattamente che, per ogni ϑ fissato, sia nota una legge di probabilità Qϑ su un certo spazio Z di risultati sperimentali possibili, e che un elemento z Z sia stato "osservato" in accordo con tale legge. Si ha così un'aggiunta d'informazione sullo stato di natura incognito ϑ, e di tale nuova informazione conviene servirsi nella ricerca della d. ottimale. Sia dato ora un problema iniziale di d. [Θ, Δ, Lδ(ϑ), P] a cui si aggiunge il modello statistico [Z, Qϑ], e si sappia che il risultato osservato è z. Secondo l'impostazione bayesiana la procedura più naturale è di passare dall'informazione "iniziale" su Θ, rappresentata da P, all'informazione "finale", rappresentata da Pz, dove Pz è la legge di probabilità su Θ subordinata al risultato z (il legame tra Pz e P, che coinvolge ovviamente l'insieme delle leggi Qϑ, è il "teorema di Bayes", ben noto nel calcolo delle probabilità). Avendo così tenuto conto dell'esperienza acquisita, si può elaborare il modello di d. [Θ, Δ, Lδ(ϑ), Pz] secondo la tecnica già descritta.

Se invece non si vuole utilizzare una legge P, si trasforma completamente il problema di d. iniziale considerando che la scelta è in definitiva tra tutte le possibili applicazioni Z → Δ (cioè le funzioni definite su Z e con valori in Δ), dette "funzioni di d.", il cui insieme denoteremo con D. Ogni funzione di d. d D può essere valutata tramite la "funzione di rischio" Rd(θ) = ∉Z Ld(z)(θ)qθ(z)dz (dove qθ(z) è una funzione di densità associata a Qθ) cioè la speranza matematica della perdita considerando θ fissato e z aleatorio. Si ottiene così un nuovo problema di d. con struttura [Θ, D, Rd(θ)], e anche tale problema può venire elaborato con le usuali tecniche non bayesiane. Giova però osservare che non è comune, nelle applicazioni sia pratiche sia teoriche, l'uso esplicito di criteri di ottimalità, quanto piuttosto l'introduzione di vincoli sulle funzioni di d., interpretabili nel contesto del problema e soddisfatti solo da una sottoclasse D* di D; usualmente la restrizione è tale che una sola d. d* ha rischio uniformemente minimo in D*. Un collegamento con l'impostazione bayesiana si ha se s'introduce la legge di probabilità iniziale P e si valuta ogni d D tramite la quantità T(d) = ∉ΘRd(θ)p(θ)dθ. Sotto condizioni ampie, la funzione di d. che minimizza T(d) fornisce proprio, per ogni z Z, la d. δ* che minimizza la quantità M(δ) calcolata in corrispondenza a Pz, cioè le due elaborazioni coincidono per la parte essenziale.

Una fondamentale applicazione teorica si ha, come già ricordato, nella teoria dell'inferenza statistica. In tal caso Z è l'"universo dei campioni" e Q definisce la cosiddetta "funzione di verosimiglianza". Si dimostra allora che i concetti essenziali di potenza di un test e di varianza di uno stimatore non distorto sono semplicemente casi particolari del concetto generale di rischio di una funzione di decisione. La gamma di problemi statistici efficacemente inquadrabili come applicazioni della t. delle d. è molto più vasta di quanto sommariamente ricordato sopra. Si può menzionare il problema del "valore dell'informazione", che sorge quando si può scegliere tra procurarsi o meno l'informazione sperimentale e, più in generale, quando l'informazione ha una dimensione liberamente determinabile (e, ovviamente, un costo variabile). Più in generale si può considerare il problema del "piano dell'esperimento", quando si può scegliere tra differenti procedure di acquisizione dell'informazione. Un caso particolare molto importante anche nelle applicazioni pratiche (industriali, cliniche, ecc.), è costituito dai "problemi sequenziali", in cui è disponibile un flusso indefinito z1, z2, ... di informazioni (costose) e, sulla base delle conoscenze via via accumulate, si deve decidere quando fermare l'osservazione (scelta della "regola di arresto") oltre che, naturalmente, come elaborare ai fini della d. finale l'informazione ottenuta.

Bibl.: Per al teoria generale, si veda: A. Wald, Statistical decision functions, New York 1950; H. Raiffa, R. Schlaifer, Applied statistical decision theory, Cambridge, Mass., 1961; B. de Finetti, Teoria delle decisioni, Roma 1964; D. Lindley, Making decision, New York 1971. Per le applicazioni alla statistica matematica, si veda in particolare: L. J. Savage, The foundations of statistics, New York 1954; T. Ferguson, mathematical statistics, a decision theoretic approach, ivi 1967; M. H. De Groot, Optimal statistical decisions, ivi 1970. Per i rapporti con la teoria dei giochi: D. Blackwell, M. A. Girshick, Theory of games and statistical decisions, New York 1954; R. D. Luce, H. Raiffa, Games and decisions, ivi 1967.

TAG

Funzione di densità di probabilità

Distribuzione di probabilità

Teoria delle decisioni

Inferenza statistica

Ordinamento parziale