Il governo dei numeri tra intelligenza umana e artificiale

di Pier Francesco Bresciani, Assegnista di ricerca in Diritto costituzionale, Università di Bologna [13 ottobre 2024]

Pubblicato il 13 ottobre 2024 | contributi

Se il “costituzionalismo numerico” avanza l’idea di una democrazia guidata da indicatori che quantificherebbero in maniera oggettiva fenomeni sociali rilevanti per la regolazione, l’intelligenza artificiale – con la sua promessa di processi decisionali data-driven, privi dei bias e del rumore tipici dell’intelligenza umana – sembra rappresentare oggi uno degli strumenti più promettenti per la sua realizzazione.

In effetti, molti parlamenti stanno già avviando sperimentazioni per integrare l’IA nei loro lavori, con la Camera dei Deputati italiana in prima linea nel contesto globale.

La domanda costituzionale principale posta da questo scenario è se l’integrazione nei processi di public decision-making di tecnologie di IA aggraverà la tendenza a concepire i processi democratici come vincolati da dati quantitativi. L’ingresso di apporti tecnici nei procedimenti di decisione politica non è, ovviamente, una novità. Il punto della questione, piuttosto, è se il fatto che questi apporti potranno in futuro essere prodotti anche da sistemi di IA ridurrà la natura democratica dei nostri processi di governo, sbilanciando ulteriormente il rapporto tra politica e tecnica.

Per provare a impostare una risposta a questa domanda bisogna porre a confronto i modi in cui l’intelligenza umana e artificiale producono conoscenza. A questo riguardo, le principali problematiche dei sistemi di IA, diventate critiche mainstream al loro uso da parte di decisori politici, sono l’opacità (black-box problem) e i bias nascosti (hidden biases).

A ben vedere, tuttavia, entrambi questi problemi si pongono anche rispetto agli apporti tecnici prodotti da esperti umani e già normalmente impiegati nei processi di governo.

Anzitutto, almeno in linea generale, i decisori politici non si trovano, quanto a opacità, in una posizione significativamente migliore quando si confrontano con esperti umani o con i prodotti scientifici di questi ultimi. I parlamentari, ad esempio, non hanno in genere le informazioni e le competenze necessarie per comprendere appieno o mettere in discussione le ragioni che supportano le opinioni degli esperti. Ciononostante, i parlamenti dipendono frequentemente dagli esperti quando prendono decisioni e, in certi casi, sono persino costituzionalmente tenuti a farlo (in Italia, ad esempio, la Corte costituzionale chiamata a pronunciarsi sulla legittimità della vaccinazione obbligatoria COVID ha affermato, nella sent. n. 14 del 2023, che “le acquisizioni, sempre in evoluzione, della ricerca medica, […] debbono guidare il legislatore nell’esercizio delle sue scelte in materia”).

Lo stesso può dirsi anche rispetto ai bias nascosti. In campo filosofico, un’obiezione sviluppata contro l’ideale epistocratico di affidare le decisioni politiche ai soggetti più esperti in una determinata materia fa perno proprio sulla possibilità che la porzione di popolazione più esperta possa presentare, in misura statisticamente sproporzionata rispetto alla popolazione generale, caratteristiche epistemicamente dannose in grado di controbilanciare i benefici derivanti dalla maggiore conoscenza. In altre parole, elevati livelli di formazione disciplinare potrebbero essere limitati ad alcuni gruppi (in termini di razza, sesso, ecc.) o, comunque, risultare connessi a certe caratteristiche in modo non empiricamente verificabile o sconosciuto (ad esempio “la porzione di popolazione più esperta è sproporzionatamente più progressista o conservatrice della popolazione generale”) e, dunque, influenzare, anche solo inconsciamente, il giudizio “tecnico” degli esperti su quale sia la migliore soluzione a un determinato problema pratico. Questa obiezione è, in fondo, del tutto analoga a quella mossa nei confronti di possibili bias non conoscibili, ma potenzialmente insiti nel funzionamento dell’IA.

Per queste ragioni, un confronto tra l’uso da parte di decisori politici di apporti tecnici prodotti da intelligenza umana e intelligenza artificiale, più che giustificare atteggiamenti pessimistici verso l’uso di IA, sembrerebbe indicare in realtà la necessità di sviluppare un comune approccio critico. A questo fine, la letteratura filosofica e giuridica sull’IA fornisce già un armamentario di riflessione (ad esempio, su spiegabilità e non discriminatorietà) che la dottrina costituzionalistica dovrebbe generalizzare a tutte le forme di partecipazione tecnica ai processi democratici, dato che anche rispetto ai casi in cui quest’ultima coinvolga esperti umani risulta ugualmente necessario, da un punto di vista costituzionale, garantire livelli adeguati di autonomia del decisore politico e giustizia epistemica dei dati presi in considerazione.

Oltre che su questo piano teorico, l’IA potrebbe rappresentare anche su quello pratico uno strumento di contrasto alle tendenze a “oggettivare” i procedimenti democratici connessi all’ingresso di apporti tecnici. Difatti, se l’IA riuscisse a democratizzare l’accesso a conoscenze specialistiche, essa diminuirebbe la dipendenza dei decisori politici dalle comunità degli esperti, annullando o riducendo le distorsioni epistemiche derivanti dal carattere non statisticamente rappresentativo di tali comunità rispetto alla popolazione generale.

Se nella pratica l’IA potenzierà la capacità di discussione politica dei temi a elevato carattere tecnico o finirà, all’opposto, per rafforzare la posizione dei tecnici sui decisori politici dipenderà però fortemente, in ultima analisi, dagli effettivi sviluppi delle tecnologie di IA nel prossimo futuro e, soprattutto, dalla capacità degli Stati costituzionali di orientare questa epocale transizione tecnologica in favore delle ragioni della democrazia.