Seminario Large Language Models (LLM): stocasticità, interpretazione e implicazioni epistemologiche
18 marzo 2026
I Large Language Models svolgono oggi un ruolo crescente nei processi decisionali, nella ricerca di informazioni e nella strutturazione del lavoro
- 15:00 - 17:00
- Online su Microsoft Teams e in presenza : Sala Mondolfo, Via Zamboni 38, 40126 Bologna, Bologna
- Scienza e tecnologia In italiano
Per partecipare
Ingresso libero fino ad esaurimento posti
Programma
I Large Language Models (LLM) svolgono oggi un ruolo crescente nei processi decisionali, nella ricerca di informazioni e nella strutturazione del lavoro. Le risposte che producono sembrano esibire forme di ragionamento articolato; tuttavia, esse sono generate attraverso un processo stocastico basato sulla previsione probabilistica della parola successiva, piuttosto che su un ragionamento logico come comunemente inteso. Questi modelli, addestrati su enormi dataset di linguaggio umano, come siti web, scansioni di libri, articoli di giornale, sollevano interrogativi rilevanti sul rapporto tra statistica e significato, tra simulazione e comprensione, e tra calcolo e ragionamento. Verranno inoltre discussi i parallelismi e le differenze con il ragionare umano, nonché le implicazioni epistemologiche, etiche e politiche connesse al controllo e alla mediazione delle informazioni da parte delle aziende che sviluppano tali modelli. Il seminario introdurrà l’architettura Transformer alla base degli LLM, i principi del loro addestramento e i meccanismi di filtraggio e allineamento delle risposte.
Chi interverrà
-
Alessandro Benfenati
Università di Milano