C7687 - NUMERI CHE DECIDONO, VITE CHE PESANO: ALGORITMI, DISUGUAGLIANZE E CRISI ECOLOGICA

Anno Accademico 2025/2026

  • Docente Giuseppe Pignataro

  • Crediti formativi 1

  • SSD SECS-P/02

  • Lingua di insegnamento Italiano

  • Modalità di erogazione In presenza (Convenzionale)

Conoscenze e abilità da conseguire

Taglio e prerequisiti

Seminario disciplinare con enfasi su modelli, metriche, esercizi empirici e implicazioni di policy. Prerequisiti consigliati: basi di statistica/econometria (classificazione, regressioni) e familiarità di massima con concetti di giustizia sociale e sostenibilità; apertura a studenti di percorsi tecnico‑economici o scientifici motivati al confronto critico.

Obiettivi formativi

Al termine, lo studente saprà:

  • Definire la disuguaglianza algoritmica (allocativa/rappresentazionale; disparate treatment/impact) e localizzarne le cause nella pipeline dati–modello–decisione.
  • Misurare fairness di gruppo (DP, EOpp, EO, PPV/NPV, calibrazione) e valutarne i trade‑off (incompatibilità).
  • Condurre un mini‑audit su classificatori: confusion matrix disaggregata per gruppi, ROC/PR, calibrazione, 80% rule, IC via bootstrap.
  • Applicare mitigazioni (pre/in/post‑processing) e documentare governance (trasparenza, spiegazioni, contestabilità, monitoraggio).
  • Analizzare casi ambientali: indici di rischio climatico, ESG/crediti di carbonio, sensori e copertura dei dati, protezione civile e allocazione di aiuti, con attenzione agli impatti distributivi.

Programma/Contenuti

Topics da coprire:

1. L’invisibilità misurata: algoritmi e disuguaglianze nell’era della selezione automatica:

cosa impariamo (learning goals)?

· Formalizzare il problema decisionale: matrici di confusione per gruppo; costi differenziati di FP/FN.

· Metriche di fairness (DP, EOpp, EO, PPV/NPV, calibrazione) e teorema di incompatibilità.

· “Visibilità algoritmica” in sistemi di ranking/filtraggio: esposizione, reach, fair delivery.

Programma dettagliato:

  • Tassonomia di bias: dati, modello, decisione, uso/feedback.
  • Metriche e scelte normative per dominio (sanità/giustizia/PA/media).
  • Misura della “visibilità”: indicatori di esposizione e copertura per gruppi.
  • Lettura di grafici: distribuzioni di rischio, ROC/PR per gruppi, calibrazione.
  • Mini‑audit guidato su dataset toy: calcolo TPR/FPR/PPV/NPV, EOpp‑diff, AOD, 80% rule; IC via bootstrap.
  • Primo confronto su mitigazioni: reweighing vs soglie per gruppo (pro/contro).

· Esercizio in aula: replicare le metriche su un dataset giocattolo (strumento: Stata). Consegna breve (facoltativa): 1 pagina con metrica primaria prescelta e razionale.

 

Topics 2 - Chi inquina, chi paga? Crisi ambientale e modelli predittivi di disuguaglianza

cosa impariamo (learning goals)?

  • Dati ambientali (reti di sensori, immagini satellitari, inventari emissivi, indici di rischio): quanto sono rappresentativi per gruppi e territori?
  • Esempi di algoritmi che allocano risorse: protezione civile, adattamento/mitigazione, assicurazioni/risk rating.
  • ESG e carbon accounting: divergenza di rating, incentivi e potenziali impatti distributivi.

· Programma dettagliato:

  • Bias di copertura: posizionamento sensori, data gaps territoriali; rischi di inferenza su aree povere/periferiche.
  • Risk scoring ambientale: mappe di pericolosità (alluvioni, ondate di calore), vulnerabilità sociale; scelta delle soglie e priorità di intervento.
  • Allocazione di aiuti/risorse (emergenze): criteri, metriche e rischi di disparate impact; esempi su “chi riceve prima/cosa”.
  • Mercati e finanza climatica: punteggi ESG eterogenei; crediti di carbonio e leakage; algoritmi di offsetting/allocazione.
  • Case‑based discussion: costruzione di un indicatore fair di rischio a partire da feature climatiche + indicatori socio‑economici.
  • Mitigazioni per l’ambiente: campionamento attivo su aree sottorappresentate; loss con pesi per equità territoriale; vincoli di copertura.

Esercizio in aula: audit rapido su classificazione “zona ad alto rischio” vs “non alto rischio”, con calcolo di EOpp/EO e proposta di mitigazione.

Letture minime: rassegne su giustizia ambientale, lavori su divergenza dei rating ESG, esempi di risk rating in protezione civile; linee guida istituzionali su equità/trasparenza dei modelli climatici. Materiali: dataset pubblico piccolo (aria/temperatura + dati socio‑demografici) e do‑file Stata dedicato.

Topic 3 – Verso una metrica della dignità: dati, alternative e immaginazione politica

cosa impariamo (learning goals)?

· Dalle metriche di accuratezza alle metriche di benessere/equità: come cambiano gli obiettivi quando si internalizzano i costi sociali degli errori.

· Governance: trasparenza, spiegazioni, contestabilità; AI Act (alto rischio), audit indipendenti, registri algoritmici.

· Progettare indicatori alternativi (BES, SDGs, benessere soggettivo) e integrarli in sistemi predittivi senza amplificare la vulnerabilità.

Programma dettagliato:

2. Funzione obiettivo “sociale”: pesi a FN/FP differenziati per gruppo/territorio; come scriverla e ottimizzarla.

3. Conciliare calibrazione e equità: perché la scelta metrica è normativa e documentabile (model cards + decision log).

4. AI Act UE e settori ad alto rischio (sanità, PA, HR, infrastrutture): requisiti minimi, valutazioni d’impatto, monitoraggio del drift.

5. Laboratorio finale: mini‑audit su caso ambientale o di servizio pubblico; confronto “prima/dopo” una mitigazione (pre/in/post).

6. Output: grafici TPR/FPR/PPV per gruppi; memo (2–3 pag.) con metrica primaria scelta, trade‑off e proposta di policy.

Letture minime: capitoli su mitigazioni e governance (Barocas–Hardt–Narayanan), paper su model cards e linee guida regolatorie (AI Act: principi e obblighi per sistemi ad alto rischio).

Testi/Bibliografia

Letture minime:

· Barocas–Hardt–Narayanan (cap. metriche e mitigazioni);

· Hardt–Price–Srebro (Equality of Opportunity; post‑processing);

· Kleinberg–Mullainathan–Raghavan / Chouldechova (incompatibilità). Letture consigliate: Dwork et al. (fairness individuale); rassegne su fairness in ranking/ads.

Metodi didattici

Didattica attiva, laboratoriale e data‑driven. Le tre lezioni combinano: brevi lezioni frontali guidate da casi empirici; esercizi quantitativi su metriche di fairness e trade‑off; mini‑audit su dataset pubblici (Stata) con calcolo di indicatori per gruppi, calibrazione e regola 80%; discussioni strutturate “evidence‑to‑policy” con rubriche di valutazione trasparenti; momenti di peer review tra gruppi. 

Regole etiche e legali

Uso di dataset pubblici/anonimizzati; documentazione delle scelte (metriche, soglie, pesi), trasparenza degli output; discussione dei diritti degli interessati (informazione, spiegazione, ricorso) e requisiti per sistemi alto rischio.

Modalità di verifica dell'apprendimento

· I collegiali dovranno conseguire l’idoneità a seguito di verifica dell’apprendimento congrua con il carico didattico (1 CFU=25 ore di impegno totale per lo studente) e differenziata rispetto alla prova di verifica dei corsi integrati (4 CFU).

· La prova di idoneità consiste in un incontro (eventualmente collettivo) successivo alla fine del seminario in cui ogni studente dovrà discutere un approfondimento critico nella forma di una tesina o una presentazione PowerPoint, che potrà essere individuale o di gruppo purché sia chiaramente identificabile il contributo del singolo, da concordare con il docente. In caso siano previste attività di laboratorio, potrà essere presentato in alternativa un elaborato o manufatto che verrà discusso per verificare le attività svolte. La prova d’esame si dovrà sostenere nella stessa lingua d’insegnamento del seminario.

Strumenti a supporto della didattica

Software, dati e materiali potenziali (da valutare):

· Software: Stata

· Dati didattici: set 'toy' + piccoli dataset pubblici (qualità dell’aria/temperature + variabili socio‑demografiche; esempi di rating ESG).

· Materiali forniti: slide, do‑file Stata per audit, schede di lettura essenziali, template del memo.

Orario di ricevimento

Consulta il sito web di Giuseppe Pignataro