TrAIettorie PA: Intelligenza Artificiale e decisioni etiche nella Pubblica Amministrazione
L’Intelligenza Artificiale (IA), e in particolare i modelli linguistici di grandi dimensioni (LLM) come ChatGPT, promette di trasformare il modo in cui lavoriamo, offrendo nuove possibilità anche nella Pubblica Amministrazione. Tuttavia, l’integrazione di queste tecnologie, specialmente in ruoli di supporto o automazione delle decisioni, richiede un’attenta valutazione dei loro limiti etici e della loro capacità di aderire ai principi fondamentali dell’agire pubblico.
Uno studio condotto da Christoph Engel del Max Planck Institute for Research on Collective Goods, insieme a Yoan Hermstrüwer e Alison Kim dell’Università di Zurigo (Discussion Paper 2025/3), ha esaminato in modo empirico la performance degli LLM come ausili decisionali in contesti legali che implicano dilemmi morali. La domanda centrale è: gli LLM prendono decisioni in linea con i valori umani e possono essere guidati da principi normativi espliciti, così come ci si aspetta da decisori umani sotto il rule of law?
Utilizzando 41 scenari ispirati al classico “problema del carrello ferroviario” – un banco di prova ampiamente studiato per i giudizi morali – i ricercatori hanno confrontato le scelte di ChatGPT (modelli GPT-o3-mini, GPT-4, GPT-3.5) con quelle di soggetti umani. Hanno inoltre testato se l’introduzione di istruzioni normative basate su principi deontologici (valorizzazione assoluta della vita), utilitaristici (massimizzazione delle vite salvate) o di bilanciamento influenzasse le risposte degli LLM.
Il risultato principale è un netto disallineamento tra le decisioni prese dagli LLM e quelle prevalenti tra gli esseri umani. È emerso che gli LLM tendono a essere significativamente più utilitaristici rispetto agli umani, privilegiando costantemente l’azione che salva il maggior numero di vite, anche se ciò implica il sacrificio di un individuo. Questo approccio contrasta con una visione deontologica, fondamentale in molti ordinamenti giuridici, che considera la dignità e il valore di ogni vita umana come assoluti e non negoziabili.
Il tentativo di “riallineare” gli LLM tramite istruzioni normative esplicite ha prodotto esiti contrastanti e complessi. GPT-3.5 si è mostrato più sensibile alle istruzioni, ma nei dilemmi più difficili ha spesso rifiutato di prendere una decisione. GPT-4 si è dimostrato prevalentemente utilitaristico e ampiamente insensibile alle istruzioni deontologiche. GPT-o3-mini ha reagito molto fortemente alle istruzioni deontologiche, ma ha faticato a bilanciare principi normativi diversi.
Implicazioni per la Pubblica Amministrazione
Per decisori e professionisti pubblici, le implicazioni di questo studio sono tutt’altro che teoriche. Sebbene gli LLM possano offrire un valido supporto in molti ambiti, il loro utilizzo per decisioni che comportano giudizi di valore delicati o forti implicazioni morali e legali presenta rischi notevoli. L’attuale generazione di LLM non è ancora sufficientemente affidabile per agire come “agente fedele” del legislatore o dei principi normativi che la PA deve rispettare.
Essi rischiano di agire come “governanti normativi non autorizzati”, imponendo bias utilitaristici che potrebbero non essere in linea con il volere della società o le norme stabilite. L’opacità dei modelli rende inoltre difficile prevedere come si comporteranno in scenari complessi o come i loro bias si manifesteranno.
È interessante notare come il “rifiuto di decidere” di GPT-3.5 possa essere interpretato come una caratteristica potenzialmente utile, segnalando all’operatore umano la natura complessa e moralmente ambigua del caso. Questo suggerisce che, in ambiti delicati, l’IA dovrebbe idealmente fungere da ausilio critico, capace di evidenziare le difficoltà normative, piuttosto che da decisore automatico che fornisce una risposta “a tutti i costi”.
Lo studio sottolinea la necessità di un approccio critico e cauto all’integrazione degli LLM nei processi decisionali della PA, specialmente dove sono in gioco valutazioni etiche e legali profonde. È imperativo verificare empiricamente e continuamente l’allineamento delle decisioni generate dall’IA con i principi normativi desiderati prima di delegare compiti delicati o affidarsi acriticamente ai loro suggerimenti. L’entusiasmo per le potenzialità dell’IA deve andare di pari passo con la consapevolezza dei suoi limiti attuali e con la responsabilità umana nel mantenere il controllo sulle decisioni di valore.
La riflessione sull’uso responsabile dell’AI nella Pubblica Amministrazione si inserisce nel più ampio percorso di ricerca e accompagnamento al cambiamento che SCS Consulting porta avanti da oltre vent’anni. Lavoriamo con enti e organizzazioni per ripensare il lavoro, i processi e le competenze alla luce delle trasformazioni tecnologiche e sociali. Per noi, l’innovazione tecnologica trova il suo valore quando aiuta a prendere decisioni più consapevoli, migliorare i servizi e rafforzare la fiducia tra cittadini e istituzioni. Promuovere un uso dell’IA orientato all’etica e al valore pubblico significa trasformare la tecnologia in una leva di crescita condivisa, capace di generare impatti positivi e duraturi per la collettività.
Vuoi approfondire i temi dell’AI nella tua organizzazione? Ti interessa parlarne con noi?



