top of page

L'ECLISSI DELLA SCELTA

Nel lessico politico moderno la decisione è sempre stata un gesto carico di

responsabilità: scegliere significa interrompere una catena di possibilità, assumersi il

rischio di un esito e rendere quell’esito imputabile a un soggetto riconoscibile. Dalla

sovranità schmittiana alla teoria liberale del governo rappresentativo, la decisione è

stata pensata come un atto umano, situato, irriducibile a un calcolo automatico.

Decidere non voleva dire semplicemente applicare una regola, ma esporsi a una

contingenza, accettare l’incertezza come condizione dell’agire politico. Oggi,

tuttavia, questa concezione mostra crepe profonde. In un numero crescente di ambiti

— dalla concessione del credito alla gestione del rischio sanitario, dalla sorveglianza

urbana alla pianificazione logistica — ciò che viene chiamato “decisione” coincide

sempre più spesso con l’esecuzione di una raccomandazione prodotta da sistemi

predittivi. Il margine di scelta non scompare formalmente, ma si restringe fino a

diventare residuale. Non si tratta semplicemente dell’introduzione di nuove

tecnologie di supporto, bensì di una trasformazione strutturale: una mutazione del

concetto stesso di scelta, che incide sul modo in cui la democrazia distribuisce

responsabilità, giustifica le proprie decisioni e concepisce il rapporto tra presente e

futuro.


Il futuro trasformato in oggetto di governo

I sistemi predittivi non agiscono sul presente, ma sul futuro reso calcolabile.

Attraverso modelli statistici addestrati su grandi quantità di dati, l’incertezza viene

tradotta in una distribuzione di probabilità continuamente aggiornata. Questo

passaggio modifica radicalmente la razionalità dell’azione pubblica: non si interviene

più su ciò che accade, ma su ciò che potrebbe accadere. Il futuro smette di essere uno

spazio aperto di possibilità e diventa una superficie da amministrare preventivamente.

In questo quadro, prevenire assume un valore superiore al deliberare, ottimizzare

diventa più importante che scegliere. La politica tende così a ridefinirsi come

gestione anticipatoria del rischio. L’errore, un tempo carico di significato politico,

viene ricodificato come deviazione statistica accettabile entro soglie prestabilite.

Questo slittamento, ampiamente discusso nel dibattito internazionale, produce una

forma di governo che riduce l’esposizione al conflitto e trasforma l’incertezza in un

problema tecnico da contenere.


La frammentazione della responsabilità


Quando una decisione è mediata da un sistema predittivo, la responsabilità non

scompare, ma si distribuisce lungo una catena tecnica complessa. Il funzionario

applica il protocollo, l’ente pubblico adotta un modello validato, il modello riflette

dati storici. Ogni passaggio appare formalmente corretto, ma l’esito finale incide

concretamente sulla vita di individui e gruppi. Questa architettura rende sempre più

difficile individuare un decisore ultimo. La responsabilità diventa opaca: non esiste

un punto preciso in cui la scelta possa essere contestata come atto politico. Inchieste

giornalistiche e rapporti istituzionali hanno mostrato come questa opacità renda

problematico l’accesso a spiegazioni, ricorsi e forme di contestazione, soprattutto

quando l’automazione riguarda ambiti sensibili come la giustizia, il welfare o la

sicurezza. L’automazione decisionale, in questo senso, non riduce il potere, ma lo

redistribuisce in una forma meno visibile e quindi più resistente alla critica pubblica.


La neutralità algoritmica come costruzione ideologica


La diffusione dei sistemi predittivi è accompagnata da una narrazione insistente sulla

loro neutralità. Poiché basati su dati e modelli matematici, essi verrebbero sottratti

all’arbitrarietà del giudizio umano. Questa rappresentazione ignora tuttavia un

elemento decisivo: ogni modello incorpora scelte normative. Decidere quali variabili

includere, quali obiettivi ottimizzare, quali errori siano accettabili non è un atto

tecnico, ma una decisione politica implicita. La neutralità algoritmica funziona così

come un dispositivo ideologico sofisticato: non elimina il potere, ma lo nasconde

nell’architettura del calcolo. Proprio questa invisibilità consente di sottrarre decisioni

fondamentali al confronto democratico, presentandole come necessità tecniche

anziché come scelte discutibili. Il linguaggio dell’oggettività algoritmica contribuisce

così a una nuova forma di depoliticizzazione dell’azione pubblica.


La decisione ridotta a rituale amministrativo


Nella modernità politica, decidere implicava un soggetto capace di assumere la

responsabilità di una scelta. Oggi assistiamo a una separazione crescente tra decisione

ed esperienza. Il soggetto resta formalmente presente, ma la sua funzione si riduce a

ratificare un output. La decisione sopravvive come gesto amministrativo, non più

come atto sostanziale. Questo svuotamento ha effetti profondi sulla sfera pubblica: se

nessuno decide davvero, nessuno può essere chiamato a rispondere. La politica

conserva le sue forme procedurali, ma perde la sua dimensione conflittuale. Al suo

posto emerge una gestione tecnica del probabile, in cui il dissenso fatica a trovare uno

spazio di articolazione perché il futuro è già stato trattato come un problema da

risolvere in anticipo. Il risultato è una democrazia formalmente intatta ma

progressivamente indebolita.


Rivendicare l'incertezza come atto politico


Ripensare la decisione oggi non significa rifiutare la tecnica, ma sottrarre il giudizio

politico alla sua completa automatizzazione. Decidere implica accettare l’incertezza

come dimensione costitutiva dell’azione pubblica, non come un difetto da eliminare.

In un’epoca che mira a neutralizzare il futuro attraverso la previsione, rivendicare

l’incertezza appare controintuitivo. Eppure è proprio in questa esposizione che risiede

la possibilità della responsabilità. Ciò che continuiamo a chiamare scelta è sempre più

spesso la mera esecuzione di un verdetto emesso da apparati predittivi. Non siamo di

fronte a un semplice ausilio tecnologico, ma a una trasformazione strutturale del

modo stesso in cui la democrazia produce decisioni e attribuisce responsabilità.

Finché risponderemo con richieste di “più trasparenza”, resteremo interamente

inscritti nello stesso paradigma. La posta in gioco non è l’efficienza, ma la nostra

capacità di dare un senso — e un colpevole — alle scelte collettive.


A cura di Matilde De Candia


Note e fonti

ProPublica, “Machine Bias: Risk Assessments in Criminal Sentencing” —

sentencing


Privacy International, “ProPublica analysis finds bias in COMPAS criminal justice

analysis-finds-bias-compas-criminal-justice-risk-scoring-system


“Algorithmic bias”, Wikipedia — https://en.wikipedia.org/wiki/Algorithmic_bias


ProPublica, “ProPublica Responds to Company’s Critique of Machine Bias Story” —

machine-bias-story


European Data Protection Supervisor, Opinion on Algorithmic Accountability (2023)

opinion_en.pdf

Commenti


bottom of page