Large Language Models (LLM): stocasticità, interpretazione e implicazioni epistemologiche

  • Data: 18 MARZO 2026  dalle 15:00 alle 17:00

  • Luogo: Sala Mondolfo, Via Zamboni 38, Bologna

I Large Language Models (LLM) svolgono oggi un ruolo crescente nei processi decisionali, nella ricerca di informazioni e nella strutturazione del lavoro. Le risposte che producono sembrano esibire forme di ragionamento articolato; tuttavia, esse sono generate attraverso un processo stocastico basato sulla previsione probabilistica della parola successiva, piuttosto che su un ragionamento logico come comunemente inteso. Questi modelli, addestrati su enormi dataset di linguaggio umano, come siti web, scansioni di libri, articoli di giornale, sollevano interrogativi rilevanti sul rapporto tra statistica e significato, tra simulazione e comprensione, e tra calcolo e ragionamento. Verranno inoltre discussi i parallelismi e le differenze con il ragionare umano, nonché le implicazioni epistemologiche, etiche e politiche connesse al controllo e alla mediazione delle informazioni da parte delle aziende che sviluppano tali modelli. Il seminario introdurrà l’architettura Transformer alla base degli LLM, i principi del loro addestramento e i meccanismi di filtraggio e allineamento delle risposte.

Interverrà: Alessandro Benfenati (Università di Milano)