L'ECLISSI DELLA SCELTA
- Matilde De Candia
- 6 giorni fa
- Tempo di lettura: 4 min
Nel lessico politico moderno la decisione è sempre stata un gesto carico di
responsabilità: scegliere significa interrompere una catena di possibilità, assumersi il
rischio di un esito e rendere quell’esito imputabile a un soggetto riconoscibile. Dalla
sovranità schmittiana alla teoria liberale del governo rappresentativo, la decisione è
stata pensata come un atto umano, situato, irriducibile a un calcolo automatico.
Decidere non voleva dire semplicemente applicare una regola, ma esporsi a una
contingenza, accettare l’incertezza come condizione dell’agire politico. Oggi,
tuttavia, questa concezione mostra crepe profonde. In un numero crescente di ambiti
— dalla concessione del credito alla gestione del rischio sanitario, dalla sorveglianza
urbana alla pianificazione logistica — ciò che viene chiamato “decisione” coincide
sempre più spesso con l’esecuzione di una raccomandazione prodotta da sistemi
predittivi. Il margine di scelta non scompare formalmente, ma si restringe fino a
diventare residuale. Non si tratta semplicemente dell’introduzione di nuove
tecnologie di supporto, bensì di una trasformazione strutturale: una mutazione del
concetto stesso di scelta, che incide sul modo in cui la democrazia distribuisce
responsabilità, giustifica le proprie decisioni e concepisce il rapporto tra presente e
futuro.
Il futuro trasformato in oggetto di governo
I sistemi predittivi non agiscono sul presente, ma sul futuro reso calcolabile.
Attraverso modelli statistici addestrati su grandi quantità di dati, l’incertezza viene
tradotta in una distribuzione di probabilità continuamente aggiornata. Questo
passaggio modifica radicalmente la razionalità dell’azione pubblica: non si interviene
più su ciò che accade, ma su ciò che potrebbe accadere. Il futuro smette di essere uno
spazio aperto di possibilità e diventa una superficie da amministrare preventivamente.
In questo quadro, prevenire assume un valore superiore al deliberare, ottimizzare
diventa più importante che scegliere. La politica tende così a ridefinirsi come
gestione anticipatoria del rischio. L’errore, un tempo carico di significato politico,
viene ricodificato come deviazione statistica accettabile entro soglie prestabilite.
Questo slittamento, ampiamente discusso nel dibattito internazionale, produce una
forma di governo che riduce l’esposizione al conflitto e trasforma l’incertezza in un
problema tecnico da contenere.
La frammentazione della responsabilità
Quando una decisione è mediata da un sistema predittivo, la responsabilità non
scompare, ma si distribuisce lungo una catena tecnica complessa. Il funzionario
applica il protocollo, l’ente pubblico adotta un modello validato, il modello riflette
dati storici. Ogni passaggio appare formalmente corretto, ma l’esito finale incide
concretamente sulla vita di individui e gruppi. Questa architettura rende sempre più
difficile individuare un decisore ultimo. La responsabilità diventa opaca: non esiste
un punto preciso in cui la scelta possa essere contestata come atto politico. Inchieste
giornalistiche e rapporti istituzionali hanno mostrato come questa opacità renda
problematico l’accesso a spiegazioni, ricorsi e forme di contestazione, soprattutto
quando l’automazione riguarda ambiti sensibili come la giustizia, il welfare o la
sicurezza. L’automazione decisionale, in questo senso, non riduce il potere, ma lo
redistribuisce in una forma meno visibile e quindi più resistente alla critica pubblica.
La neutralità algoritmica come costruzione ideologica
La diffusione dei sistemi predittivi è accompagnata da una narrazione insistente sulla
loro neutralità. Poiché basati su dati e modelli matematici, essi verrebbero sottratti
all’arbitrarietà del giudizio umano. Questa rappresentazione ignora tuttavia un
elemento decisivo: ogni modello incorpora scelte normative. Decidere quali variabili
includere, quali obiettivi ottimizzare, quali errori siano accettabili non è un atto
tecnico, ma una decisione politica implicita. La neutralità algoritmica funziona così
come un dispositivo ideologico sofisticato: non elimina il potere, ma lo nasconde
nell’architettura del calcolo. Proprio questa invisibilità consente di sottrarre decisioni
fondamentali al confronto democratico, presentandole come necessità tecniche
anziché come scelte discutibili. Il linguaggio dell’oggettività algoritmica contribuisce
così a una nuova forma di depoliticizzazione dell’azione pubblica.
La decisione ridotta a rituale amministrativo
Nella modernità politica, decidere implicava un soggetto capace di assumere la
responsabilità di una scelta. Oggi assistiamo a una separazione crescente tra decisione
ed esperienza. Il soggetto resta formalmente presente, ma la sua funzione si riduce a
ratificare un output. La decisione sopravvive come gesto amministrativo, non più
come atto sostanziale. Questo svuotamento ha effetti profondi sulla sfera pubblica: se
nessuno decide davvero, nessuno può essere chiamato a rispondere. La politica
conserva le sue forme procedurali, ma perde la sua dimensione conflittuale. Al suo
posto emerge una gestione tecnica del probabile, in cui il dissenso fatica a trovare uno
spazio di articolazione perché il futuro è già stato trattato come un problema da
risolvere in anticipo. Il risultato è una democrazia formalmente intatta ma
progressivamente indebolita.
Rivendicare l'incertezza come atto politico
Ripensare la decisione oggi non significa rifiutare la tecnica, ma sottrarre il giudizio
politico alla sua completa automatizzazione. Decidere implica accettare l’incertezza
come dimensione costitutiva dell’azione pubblica, non come un difetto da eliminare.
In un’epoca che mira a neutralizzare il futuro attraverso la previsione, rivendicare
l’incertezza appare controintuitivo. Eppure è proprio in questa esposizione che risiede
la possibilità della responsabilità. Ciò che continuiamo a chiamare scelta è sempre più
spesso la mera esecuzione di un verdetto emesso da apparati predittivi. Non siamo di
fronte a un semplice ausilio tecnologico, ma a una trasformazione strutturale del
modo stesso in cui la democrazia produce decisioni e attribuisce responsabilità.
Finché risponderemo con richieste di “più trasparenza”, resteremo interamente
inscritti nello stesso paradigma. La posta in gioco non è l’efficienza, ma la nostra
capacità di dare un senso — e un colpevole — alle scelte collettive.
A cura di Matilde De Candia
Note e fonti
ProPublica, “Machine Bias: Risk Assessments in Criminal Sentencing” —
sentencing
Privacy International, “ProPublica analysis finds bias in COMPAS criminal justice
risk scoring system” — https://privacyinternational.org/examples/1801/propublica-
analysis-finds-bias-compas-criminal-justice-risk-scoring-system
“Algorithmic bias”, Wikipedia — https://en.wikipedia.org/wiki/Algorithmic_bias
ProPublica, “ProPublica Responds to Company’s Critique of Machine Bias Story” —
machine-bias-story
European Data Protection Supervisor, Opinion on Algorithmic Accountability (2023)
opinion_en.pdf

Commenti