<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Alessia Ragnoli Archivi - Giustamm</title>
	<atom:link href="https://www.giustamm.it/autore/alessia-ragnoli/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.giustamm.it/autore/alessia-ragnoli/</link>
	<description></description>
	<lastBuildDate>Fri, 17 Apr 2026 22:44:32 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.giustamm.it/wp-content/uploads/2021/04/cropped-giustamm-32x32.png</url>
	<title>Alessia Ragnoli Archivi - Giustamm</title>
	<link>https://www.giustamm.it/autore/alessia-ragnoli/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Intelligenza artificiale e giustizia amministrativa</title>
		<link>https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 17 Apr 2026 22:44:32 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=90517</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/">Intelligenza artificiale e giustizia amministrativa</a></p>
<p>Dott.ssa Alessia Ragnoli Intelligenza artificiale e giustizia amministrativa[1] Abstract (it): Il contributo esamina l’impatto dell’intelligenza artificiale sulla giustizia, in particolare amministrativa, inquadrando il fenomeno nel contesto della trasformazione digitale e della crescente centralità del dato. L’analisi si sofferma sulle applicazioni dell’IA nei processi decisionali, interrogandosi sul grado di compatibilità tra</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/">Intelligenza artificiale e giustizia amministrativa</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/">Intelligenza artificiale e giustizia amministrativa</a></p>
<p style="text-align: justify;"><strong>Dott.ssa Alessia Ragnoli</strong></p>
<p style="text-align: justify;">Intelligenza artificiale e giustizia amministrativa<a href="#_ftn1" name="_ftnref1">[1]</a></p>
<p style="text-align: justify;">Abstract (it): Il contributo esamina l’impatto dell’intelligenza artificiale sulla giustizia, in particolare amministrativa, inquadrando il fenomeno nel contesto della trasformazione digitale e della crescente centralità del dato. L’analisi si sofferma sulle applicazioni dell’IA nei processi decisionali, interrogandosi sul grado di compatibilità tra automazione e funzione giurisdizionale. Vengono quindi approfonditi i principi di legalità algoritmica introdotti dalla giurisprudenza e il quadro regolatorio multilivello, con particolare riguardo all’AI Act e alla L.132/2025. Il lavoro evidenzia, infine, come l’impiego dell’IA, pur offrendo rilevanti opportunità in termini di efficienza, debba rimanere subordinato al controllo umano, a garanzia dei diritti fondamentali e dello Stato di diritto.</p>
<p style="text-align: justify;">Abstract (en):<em> The article examines the impact of artificial intelligence on the justice system, particularly the administrative justice system, placing the phenomenon within the context of digital transformation and the growing centrality of data. The analysis focuses on the applications of AI in decision-making processes, exploring the extent to which automation is compatible with the judicial function. It then explores the principles of algorithmic legality established by case law and the multi-level regulatory framework, with particular regard to the AI Act and L.132/2025. Finally, the paper highlights how the use of AI, while offering significant opportunities in terms of efficiency, must remain subject to human oversight, in order to safeguard fundamental rights and the rule of law.</em></p>
<p style="text-align: justify;">Sommario: 1. Introduzione: il cammino dell’innovazione verso la “società della rete” – 1.1. La centralità del dato nella Pubblica Amministrazione tra riuso, intelligenza artificiale e tutela dei dati personali &#8211; 2. I sistemi di Intelligenza Artificiale: quadro generale – 2.1. I sistemi di Intelligenza Artificiale nel settore della giustizia – 2.2. Alla ricerca di una nuova sintesi con <em>l’IA neuro-symbolic</em> – 3. Come funziona la giustizia predittiva: analisi dei sintomi e delle logiche algoritmiche – 4. L’integrazione dell’IA nel settore della giustizia – 4.1. Dal provvedimento umano al provvedimento algoritmico: il giudice-robot – 5. L’algoritmo non può indossare la toga: l’uso esclusivamente strumentale dell’IA – 5.1. L’elaborazione pretoria dei c.d. principi di legalità algoritmica – 6. La regolazione multilivello dell’Intelligenza Artificiale tra uniformazione europea e autonomia statale – 6.1. Il Regolamento (UE) 2024/1689, c.d. AI Act – 6.1.1. La giustizia nell’era dell’AI Act – 6.2. La disciplina interna dell’Intelligenza Artificiale: una regolazione in attesa di attuazione – 6.2.1. Prospettive applicative della L. 132/2025 – 7. Il Consiglio Superiore della Magistratura e l’IA: indirizzi, limiti e prospettive concrete &#8211; 8. Il Ministero della giustizia e suoi atti di indirizzo e sperimentazione – 9. Il ruolo pionieristico della giurisdizione amministrativa – 10. Le competenze del magistrato nell’era dell’Intelligenza Artificiale – 11. Conclusioni</p>
<ol style="text-align: justify;">
<li><em>Introduzione: il cammino dell’innovazione verso la “società della rete”</em></li>
</ol>
<p style="text-align: justify;">Viviamo in un’epoca in cui l’Intelligenza Artificiale (IA) non rappresenta più soltanto un affascinante e astratto scenario futuristico, ma costituisce una realtà ormai consolidata e in continua evoluzione, in grado di trasformare radicalmente i modelli economico-giuridici della nostra società<a href="#_ftn2" name="_ftnref2">[2]</a>. In ragione di ciò, si utilizza l’espressione “<em>società della rete</em>”<a href="#_ftn3" name="_ftnref3">[3]</a> per indicare un nuovo tipo di organizzazione sociale ed economica, in cui i processi produttivi, culturali e sociali sono globalmente interconnessi, a prescindere dalle distanze geografiche. Tale società si caratterizza per l’impiego di macchine che elaborano un numero elevatissimo di dati<a href="#_ftn4" name="_ftnref4">[4]</a> o, più propriamente, <em>big data</em>. Il fenomeno della datificazione determina un <em>continuum </em>in cui l’individuo produce dati, la cui gestione e interpretazione (<em>data literacy</em>) genera profitti, e i profitti confermano un ordine economico e sociale segnato dal persistente dominio delle <em>Big Tech.</em></p>
<p style="text-align: justify;">In tale quadro si inserisce il presente contributo, che si propone di analizzare l’impatto dell’intelligenza artificiale sull’esercizio della funzione giurisdizionale, con particolare riferimento al giudice amministrativo, quale garante della legalità dell’azione pubblica e della tutela delle situazioni giuridiche soggettive. L’indagine è volta, in particolare, a verificare se l’impiego di strumenti algoritmici sia suscettibile di incidere sui caratteri strutturali della funzione giurisdizionale, fino a ipotizzare forme, anche parziali, di sostituzione dell’attività decisionale umana, ovvero se tali tecnologie debbano essere ricondotte nell’alveo di strumenti di mero supporto all’attività del giudice; ciò sempre nel rispetto dei principi del giusto processo e delle garanzie fondamentali.</p>
<ul style="text-align: justify;">
<li><em>La centralità del dato nella Pubblica Amministrazione tra riuso, intelligenza artificiale e tutela dei dati personali</em></li>
</ul>
<p style="text-align: justify;">Emerge, dunque, la necessità di approfondire il ruolo del dato, quale elemento cardine delle trasformazioni in atto e presupposto imprescindibile per comprendere le implicazioni giuridiche dell’impiego dell’IA, con particolare riguardo al settore pubblico e all’attività giurisdizionale.</p>
<p style="text-align: justify;">Il dato assume un profilo di particolare rilievo nella Pubblica Amministrazione, essendo la stessa, per la natura stessa delle funzioni esercitate, uno dei principali luoghi di raccolta, produzione e organizzazione delle informazioni. In tale contesto, l’evoluzione tecnologica ha determinato il progressivo passaggio da un modello di amministrazione analogica, fondato sulla gestione documentale e sulla raccolta di informazioni funzionali a specifici procedimenti, ad un modello di amministrazione digitale e, in prospettiva, algoritmica ove oltre alla digitalizzazione dei procedimenti, vi è una totale revisione della dimensione conoscitiva dell’attività amministrativa<a href="#_ftn5" name="_ftnref5">[5]</a>.  In questo senso, il tema dell’interoperabilità del proprio patrimonio informativo, e quindi del riuso<a href="#_ftn6" name="_ftnref6">[6]</a> dei dati pubblici, diviene centrale, poiché consente di valorizzare per plurimi scopi informazioni originariamente raccolte solo per finalità amministrative specifiche. Attraverso nuove modalità di elaborazione e analisi dei dati, rese possibili dai sistemi di IA, sarà possibile individuare correlazioni, pattern e inferenze tra i dati posseduti.</p>
<p style="text-align: justify;">L’uso di sistemi di IA, tuttavia, pone rilevanti questioni giuridiche connesse alla tutela dei diritti fondamentali e, in particolare, alla protezione dei dati personali non solo nel campo pubblico delle P.A., ma soprattutto in quello privato<a href="#_ftn7" name="_ftnref7">[7]</a>. Perciò, il <em>General Data Protection Regulation</em> (GDPR)<a href="#_ftn8" name="_ftnref8">[8]</a> continua a rappresentare una disciplina generale di riferimento nel trattamento di dati personali, anche quando ciò avviene nell’ambito dei sistemi di IA. Fondamentali sono i principi generali di cui all’art. 5 GDPR – tra cui liceità, correttezza e trasparenza, limitazione della finalità e minimizzazione dei dati – oltre che la presenza di una disciplina specifica in materia di decisioni automatizzate di cui all’art. 22 GDPR, onde viene riconosciuto all’interessato il diritto di non essere sottoposto a decisioni basate unicamente su trattamenti automatizzati, salvo il ricorrere di specifiche condizioni e con adeguate garanzie<a href="#_ftn9" name="_ftnref9">[9]</a>.</p>
<p style="text-align: justify;">In questa prospettiva si collocano anche le più recenti prese di posizione delle autorità europee di protezione dei dati, tra cui il Parere congiunto n. 2/2026<a href="#_ftn10" name="_ftnref10">[10]</a> dell<em>’European Data Protection Board </em>e dell’<em>European Data Protection Supervisor </em>sulla proposta di regolamento c.d. <em>Digital Omnibus</em>, nel quale, pur riconoscendosi l’esigenza di semplificazione del quadro normativo digitale europeo, si sottolinea la necessità che tale obiettivo non si traduca in una riduzione del livello di tutela garantito dal GDPR e, più in generale, di garantire un equilibrio tra innovazione tecnologica e protezione dei diritti fondamentali nel contesto dell’intelligenza artificiale.</p>
<ol style="text-align: justify;" start="2">
<li><em>I sistemi di Intelligenza Artificiale: quadro generale</em></li>
</ol>
<p style="text-align: justify;">Dovendo necessariamente operare una selezione di quest’ampissimo ambito di indagine, la presente analisi si concentrerà sull’uso di sistemi di Intelligenza Artificiale – e, in particolare, di giustizia predittiva &#8211; da parte della magistratura giudicante, con specifico riferimento a quella amministrativa. Lo studio deriva dalla necessità, per il giurista d’oggi, di verificare l’impatto delle nuove tecnologie sui diritti fondamentali dell’individuo e sui principi dello Stato di diritto, affrontando un necessario ripensamento delle categorie giuridiche tradizionali.</p>
<p style="text-align: justify;">A tal fine, in questa sede si opererà un’analisi semplificata, limitata a quanto necessario ai predetti fini, del funzionamento e delle capacità dei sistemi intelligenti.</p>
<p style="text-align: justify;">Gli studi sui sistemi di IA, avviati intorno agli anni ‘50<a href="#_ftn11" name="_ftnref11">[11]</a>, miravano ad individuare delle tecniche per riprodurre le capacità e/o i processi cognitivi tipici dell’essere umano mediante un calcolatore. Ciò ha portato inevitabilmente a porsi una fondamentale questione preliminare: cosa sia l’intelligenza umana.</p>
<p style="text-align: justify;">Si sono rilevate, nella ricerca di una soluzione al quesito, una molteplicità di definizioni specchio di altrettante tipologie di intelligenza umana<a href="#_ftn12" name="_ftnref12">[12]</a>. Sul punto, fondamentale è la teoria di Howard Gardner delle intelligenze multiple, raffigurante l’esistenza di diverse forme di intelligenza &#8211; tra cui quella linguistica, logico-matematica, spaziale, musicale, interpersonale e intrapersonale &#8211; tutte ugualmente valide e importanti.</p>
<p style="text-align: justify;">Ed è nella mimesi di queste funzioni &#8211; ormai raggiunta solo relativamente a specifiche funzioni del cervello umano, ma ancora un’utopia per quanto riguarda l’integrale sua complessità &#8211; che trovano avvio gli studi sui sistemi di Intelligenza Artificiale.</p>
<p style="text-align: justify;">I modelli di più recente generazione si fondano sull’apprendimento automatico (<em>machine learning</em>) e, in particolare, sulle reti neurali profonde (<em>deep learning</em>). Le tecniche di <em>deep learning</em> operano una simulazione delle reti neurali, denominate appunto reti neurali artificiali<a href="#_ftn13" name="_ftnref13">[13]</a>, composte da plurimi livelli di nodi, o “neuroni” interconnessi, che ricevono un <em>input,</em> lo elaborano attraverso funzioni matematiche, e producono un <em>output</em>. A differenza dei tradizionali algoritmi basati su regole esplicite e deterministiche, questi modelli non eseguono istruzioni predefinite, bensì “imparano” dai dati utilizzati nell’addestramento e, attraverso l’individuazione statistica di correlazioni e pattern ricorrenti, elaborano previsioni e/o classificazioni.</p>
<p style="text-align: justify;">Particolarmente esemplificativo del funzionamento del <em>machine learning </em>è il paragone operato con il concetto filosofico dell’iperuranio, o mondo delle idee, di Platone: <strong>«</strong><em>Nella fase di apprendimento, l’algoritmo, processando enormi quantità di dati, forma quella che potremmo definire l’“idea”, il concetto che si vorrà andare a valutare. Tale “idea”, tecnicamente il c.d. modello, viene utilizzata in fase di esecuzione dell’algoritmo per verificare se un set di nuovi dati vi si conformino, e quindi possano essere ricondotti al medesimo concetto, ovvero se non presentino sufficienti caratteristiche e debbano quindi essere considerati estranei a tale “idea” (modello)<strong>»</strong>.</em><a href="#_ftn14" name="_ftnref14">[14]</a></p>
<p style="text-align: justify;">Infatti, partendo da un codice sorgente (scritto dal programmatore, ma oggi anche dalle macchine stesse), attraverso il programma di apprendimento automatico il sistema ricava un modello che servirà ad analizzare i nuovi dati immessi al fine di ricavarne un <em>output</em><a href="#_ftn15" name="_ftnref15">[15]</a>. Tuttavia, la capacità adattiva e di autonoma creazione del modello determina un’elevata opacità del processo decisionale, generando il fenomeno della <em>black box</em>, in virtù del quale neppure gli sviluppatori sono in grado di spiegare con certezza come l’algoritmo sia giunto a un determinato esito.</p>
<p style="text-align: justify;">Tra le evoluzioni più rilevanti di questi sistemi rientrano quelli di elaborazione del linguaggio naturale (<em>Natural Language Processing, NLP</em>) ed in particolare a quel sottoinsieme che sfrutta tecniche di apprendimento automatico, i modelli linguistici avanzati c.d. <em>Large Language Models </em>(LLM). Questi modelli linguistici sono in grado di generare <em>output</em> in linguaggio naturale, mediante l’analisi di miliardi di relazioni sintattiche e semantiche tra le parole, con risposte coerenti rispetto ai quesiti. Tuttavia, questi sistemi non “comprendono” realmente ciò che elaborano, ma operano meramente simulando il linguaggio umano sulla base di correlazioni probabilistiche<a href="#_ftn16" name="_ftnref16">[16]</a>. Ciononostante, tali sistemi &#8211; diversamente dagli algoritmi puramente statistici &#8211; sono in grado di riassumere sentenze, redigere bozze di provvedimenti, sintetizzare dottrina e giurisprudenza, tradurre testi giuridici complessi e persino suggerire argomentazioni, e proprio per questo motivo, possono avere un impatto centrale sul settore giuridico.</p>
<p style="text-align: justify;">
<ul style="text-align: justify;">
<li><em>I sistemi di Intelligenza Artificiale nel settore della giustizia</em></li>
</ul>
<p style="text-align: justify;">Affrontando <em>in primis</em> il tema dei modelli applicabili al settore giuridico, possiamo distinguere i sistemi di <em>machine learning</em>, di stampo predittivo-statistico, dai sistemi <em>rule-based</em> o simbolici, che si fondano su regole logiche esplicite del tipo “se… allora…”.</p>
<p style="text-align: justify;">Questi ultimi sono sistemi che cercano di catturare, tramite regole chiuse, il ragionamento induttivo, sistematico e assiologico proprio del giurista. Tali sistemi si sono però rivelati incapaci di modellare la complessità e la dinamicità del diritto, soprattutto per un limite quantitativo del numero di regole gestibili. Alcuni sistemi esperti sviluppati tra gli anni Settanta e Novanta &#8211; tra i noti Legal Expert Systems come HYPO, CATO, TAXMAN o PROLOG-LAW<a href="#_ftn17" name="_ftnref17">[17]</a>&#8211; computavano qualche centinaio di regole. Tuttavia, questi sistemi esperti non hanno avuto grande successo, primariamente per la loro incapacità di gestire più di 300 regole circa<a href="#_ftn18" name="_ftnref18">[18]</a> (anche se poi a fronte della riduzione degli investimenti non sono stati studiati e implementati) per la complessità di aggiornamento e per il cosiddetto <em>knowledge acquisition bottleneck</em>, ossia l’impossibilità pratica di tradurre e aggiornare in maniera completa e coerente la conoscenza giuridica all’interno di una base di regole statiche. La programmazione di queste regole richiede la presenza minima di un esperto giurista e un ingegnere informatico che traducano le norme/la giurisprudenza in regole logiche e formali; tuttavia, questo processo è molto lento e costoso. A ciò si aggiunga che, essendo necessario un continuo aggiornamento per adattare il sistema a modifiche normative e giurisprudenziali, il costo di mantenimento di questi sistemi è molto alto; senza contare che l’introduzione di più regole ed eccezioni rende più probabile la generazione di incoerenze.</p>
<ul style="text-align: justify;">
<li><em>Alla ricerca di una nuova sintesi con l’IA neuro-symbolic</em></li>
</ul>
<p style="text-align: justify;">Attualmente, la ricerca di un paradigma teoricamente compatibile con la funzione giurisdizionale si sta muovendo verso sistemi, non <em>rule-based</em> o di <em>machine learning</em> (come alcuni sistemi di giustizia predittiva), bensì di<em> IA neuro-symbolic</em> (neurosimbolica).</p>
<p style="text-align: justify;">Con <em>neuro-symbolic AI</em> si intende la sintesi di approcci che integrano componenti neurali (reti neurali e machine learning) con componenti simboliche (ontologie, logica, regole, motori di inferenza)<a href="#_ftn19" name="_ftnref19">[19]</a>. L’obiettivo di questa innovativa tecnologia è unire la capacità di apprendimento dei modelli statistici con la trasparenza, controllabilità e capacità argomentativa dei sistemi simbolici.  Su tutti, la trasparenza — intesa non solo come accessibilità ma come effettiva spiegabilità (<em>explainability</em>) delle decisioni algoritmiche — si configura come la chiave di volta per prevenire l’opacità<a href="#_ftn20" name="_ftnref20">[20]</a> delle diverse forme di potere dell’era digitale propria dei <em>machine learning</em>. Solo un sistema ibrido potrebbe, in teoria, soddisfare i requisiti di trasparenza, controllabilità e motivazione richiesti dall’esercizio della funzione giurisdizionale.</p>
<p style="text-align: justify;">Tuttavia, allo stato dell’arte, anche questa tecnologia non è ancora pienamente operativa e affidabile. Pertanto, nell’ambito giuridico, i principali sistemi sviluppati e in commercio sono di <em>machine learning, </em>che &#8211; come già anticipato &#8211; operano attraverso l’elaborazione statistica dei dati, individuando correlazioni e pattern ricorrenti al fine di formulare previsioni. In particolare, possiamo trovare sistemi come quelli di <em>legal information</em> e di <em>decision support</em> sviluppati da operatori editoriali e istituzionali, al fine di creare un modello in grado di supportare l’attività dell’operatore del diritto nell’effettuare l’analisi, la classificazione e la correlazione delle fonti. Diversa è, invece, la prospettiva e l’obiettivo dei sistemi di giustizia predittiva (<em>predictive justice) </em>che si pongono in rapporto diretto con l’attività di <em>ius dicere</em> consentendo di giungere ad una previsione automatizzata dell’esito del giudizio, grazie ad un’analisi statistica avanzata (gestita nella quasi totalità dei casi da tecnologie di Intelligenza Artificiale).</p>
<ol style="text-align: justify;" start="3">
<li><em>Come funziona la giustizia predittiva: analisi dei sintomi e delle logiche algoritmiche</em></li>
</ol>
<p style="text-align: justify;">Il concetto di giustizia predittiva, come quello di intelligenza e di Intelligenza Artificiale, manca di una definizione tecnica consolidata. Con tale espressione, infatti, si indicano diverse attività che spaziano, con varie sfumature: dal traguardo pratico minimo della piena accessibilità a tutti i dati relativi ai procedimenti giudiziari, passando per l’ambizioso obiettivo teorico della previsione automatizzata delle decisioni giudiziarie, fino a raggiungere l’estremo obiettivo pratico della sostituzione dei giudici umani con sistemi automatizzati. <a href="#_ftn21" name="_ftnref21">[21]</a></p>
<p style="text-align: justify;">In dottrina, una definizione operativamente utile, recita: “<em>come degli algoritmi di apprendimento automatico (machine learning) che utilizzano le tecniche dell’elaborazione del linguaggio naturale (natural language processing) e dell’apprendimento profondo (deep learning) per analizzare, tramite la ricerca testuale e la clusterizzazione, dei megadati (ossia grandi insiemi di dati) &#8211; rappresentati da provvedimenti normativi e da precedenti giurisprudenziali &#8211; allo scopo di costruire modelli statistici finalizzati al raggiungimento di plurimi obiettivi, utili per un giurista, tra i quali quello, per l’appunto, di prevedere anche il possibile esito di un giudizio</em>” <a href="#_ftn22" name="_ftnref22">[22]</a>. In altri termini, l’addestramento di questi sistemi consentirebbe di operare classificazioni delle decisioni, raggruppando (<em>clustering</em>) casi consimili e stimando le probabilità di accoglimento mediante l’individuazione di pattern ricorrenti; il tutto in un linguaggio naturale comprensibile all’uomo (stante l’ausilio di tecniche di LLM).</p>
<p style="text-align: justify;">Ciò dimostra come gli strumenti predittivi siano in grado di attuare un’analisi del rischio giudiziario, ma non di fornire la soluzione del caso concreto. Infatti, se sono evidenti i vantaggi in termini di razionalizzazione, celerità e deflazione<a href="#_ftn23" name="_ftnref23">[23]</a> del processo, è altrettanto vero che: “<em>le decisioni robotiche hanno la propensione a “codificare” il passato, ingabbiando soluzioni e predizioni all&#8217;interno delle griglie fornite dai trascorsi storici e dai valori che hanno guidato la programmazione dell&#8217;algoritmo alla base del processo decisionale</em>”<a href="#_ftn24" name="_ftnref24">[24]</a>. È questa la principale doglianza che può essere mossa a chi argomenta come questi sistemi siano in grado di assicurare una maggiore certezza del diritto e uguaglianza nella giustizia.</p>
<p style="text-align: justify;">Per quanto concerne la certezza del diritto &#8211; come sottolineato da parte della dottrina &#8211; questa non va intesa come preventiva acquisizione di un risultato, bensì come ragionevole aspettativa, sempre fondata sul trattamento uniforme di casi consimili, in ossequio al principio di uguaglianza. La realtà, con le sue molteplici sfaccettature, ci mostra come ogni caso si caratterizza per specificità che possono distinguerlo da un altro caso simile, incidendo sull’esito della decisione.</p>
<p style="text-align: justify;">L’attività interpretativa proposta da questi sistemi sarebbe dunque priva di censure solo se si aderisse a quella corrente, di stampo montesquiano, che intende restituire al giudizio un’impronta ricognitiva, e non creativa, del diritto. Una visione, quest’ultima, che vede il giudice come un interprete passivo, la cui attività si riduce a un mero esercizio logico orientato all’applicazione rigida della legge. Il dibattito sull’attività di <em>ius dicere</em> esercitata da sistemi di IA ha dunque riportato in primo piano le problematiche evidenziate nel mito illuminista del giudice “bocca della legge”, ma accentuate dall’incorporeità e dalla a-storicità di una macchina che opera: “<em>al di fuori della storia, cioè lo spazio abitato dagli umani e cioè dai loro corpi</em>”<a href="#_ftn25" name="_ftnref25">[25]</a>.  Nonché vengono a porsi nel nostro sistema di <em>civil law</em> le tipiche doglianze mosse ai sistemi di <em>common law</em> caratterizzati dal principio dello <em>stare decisis</em> e dal vincolo formale del precedente<a href="#_ftn26" name="_ftnref26">[26]</a>. In particolare, la natura retrospettiva, propria del sistema di <em>common law</em> – e dei sistemi predittivi &#8211; può determinare una riproduzione di <em>bias</em> contenuti nelle precedenti sentenze, oppure una più lenta evoluzione del diritto.</p>
<p style="text-align: justify;">È bene evidenziare come i modelli predittivi di stampo induttivo, come quelli di <em>common law</em> &#8211; onde la base di addestramento dell’algoritmo consiste esclusivamente in sentenze pregresse &#8211; risultano difficilmente trasferibili nei sistemi di <em>civil law</em> senza un significativo adattamento, pena una sovra-enfasi del precedente a scapito dell’interpretazione testuale e sistematica della norma. Infatti, in quest’ultimo sistema, l’attività interpretativa si sviluppa secondo un percorso prevalentemente deduttivo, che muove dal dato legislativo per giungere alla soluzione del caso concreto, pur nel dialogo con il diritto vivente<a href="#_ftn27" name="_ftnref27">[27]</a>. L’algoritmo, pertanto, non deve soltanto “apprendere” ricorrenze decisionali, ma deve essere in grado di correlare il dato fattuale alla cornice normativa di riferimento<a href="#_ftn28" name="_ftnref28">[28]</a>, operazione che implica una maggiore complessità strutturale rispetto ai modelli statistici integrati esclusivamente con basi giurisprudenziali, come quelli sviluppati nei Paesi anglo-americani ove questi sistemi sono, peraltro, oggetto di maggior diffusione e investimento<a href="#_ftn29" name="_ftnref29">[29]</a>.</p>
<p style="text-align: justify;">Ne consegue che, al di là delle differenze strutturali tra <em>common law</em> e <em>civil law</em> e delle diverse modalità di addestramento dei sistemi algoritmici, la questione centrale non è tanto la maggiore o minore efficienza predittiva degli strumenti tecnologici, quanto la loro compatibilità con la natura costituzionale della funzione giurisdizionale. L’eventuale capacità dell’algoritmo di individuare regolarità statistiche nei precedenti o nell’interpretazione delle norme non esaurisce, infatti, il contenuto del giudicare, che implica un’attività valutativa, interpretativa e assiologica non riducibile a mera correlazione tra dati. La natura umana del magistrato è un elemento essenziale dell’attività giurisdizionale, tanto nell’analisi del diritto quant’anche del fatto, come verrà meglio illustrato di seguito. È dunque necessario tener presente la complessità del giudizio contemporaneo, intrinsecamente connesso a valori di principio, nazionali, europei, e internazionali, lontani da una rigida visione della legalità.</p>
<p style="text-align: justify;">Infine, è opportuno chiarire la differenza semantica tra giustizia predittiva e giustizia automatizzata. La prima, come analizzato, adotta strumenti algoritmici e statistici per l’analisi dei dati giuridici/giurisprudenziali al fine di formulare previsioni sugli esiti di un procedimento. Tali previsioni possono limitarsi a fungere da mero ausilio o arrivare a determinare la decisione del caso concreto, sostituendosi al giudizio umano. Ed è proprio in questa seconda ipotesi — caratterizzata da un’incidenza diretta e immediata sulla decisione — che si configura la giustizia automatizzata. Pertanto, più che di una netta distinzione, si può parlare di un assorbimento della giustizia predittiva in quella automatizzata qualora la macchina raggiunga un livello di autonomia tale da eseguire compiti procedurali e statistici capaci di generare l&#8217;output finale, superando la sfera della semplice ipotesi solutiva. Torna, dunque, in rilievo come la definizione stessa di giustizia predittiva vari in base alle capacità del modello impiegato, rendendo complesso il raggiungimento di una sintesi univoca e onnicomprensiva.</p>
<ol style="text-align: justify;" start="4">
<li><em>L’integrazione dell’IA nel settore della giustizia</em></li>
</ol>
<p style="text-align: justify;">La demarcazione tra il valore previsionale e quello previsorio dell’algoritmo non ha solo profili astratti e definitori, ma ha un effetto operativamente utile nel demarcare il confine di ammissibile utilizzo del sistema nelle aule di tribunale. Muovendo da questa consapevolezza possiamo dunque approfondire la distinzione, e la legittimità, di due modelli di integrazione tecnologica profondamente diversi: l’IA a supporto del giudice, intesa come strumento di potenziamento delle capacità umane, e l’IA in sostituzione del giudice, dove l&#8217;algoritmo assume il provvedimento finale.</p>
<ul style="text-align: justify;">
<li><em>Dal provvedimento umano al provvedimento algoritmico: il giudice-robot</em></li>
</ul>
<p style="text-align: justify;">La possibilità di introdurre, nell’ordinamento giuridico italiano, un sistema di Intelligenza Artificiale in sostituzione all’essere umano nell’esercizio dell’attività decisoria pone delle questioni tanto di carattere tecnico (in parte già anticipate) quant’anche ontologico.</p>
<p style="text-align: justify;">Nel valutare la compatibilità di un giudice-robot con i principi dell’ordinamento italiano &#8211;  e, dunque, dell’ammissibilità ontologica di una delega di sovranità giudiziaria &#8211; occorre rilevare l’assenza, a livello costituzionale, di un riferimento espresso sul tema. Nonostante ciò, una parte della dottrina, individua la presenza di un principio di umanità del giudice, tutelato a livello costituzionale e sovranazionale che si oppone a un utilizzo sostitutivo dei modelli di IA.</p>
<p style="text-align: justify;">In particolare, l’umanità del giudice troverebbe fondamento nel principio personalista di cui all’art. 2 Cost., che impedisce ogni equiparazione di valore tra l’essere umano e la macchina, imponendo una giurisdizione “fatta da uomini e per gli uomini”. Analoghe garanzie emergono a livello sovranazionale dall’art. 6 CEDU e dall’art. 47 della Carta di Nizza. Ulteriore fondamento è rinvenibile nel principio del giudice naturale precostituito per legge (art. 25 Cost.), ove l’attributo “naturale” può essere interpretato come implicante la condizione di essere umano, in quanto dotato di razionalità e coscienza. Proseguendo il Titolo IV della Parte II della Costituzione, in alcuni dei suoi articoli, delinea una funzione giudicante eminentemente umana: affidata a un giudice nominato per concorso, soggetto alla legge, dotato di inamovibilità e terzietà (artt. 101, 107, 111 Cost.). Un tal riferimento lo possiamo poi trovare anche nelle norme processuali, come all’art. 116 c.p.c. che ancora la valutazione della prova al prudente apprezzamento del giudice; giudizio che (come abbiamo già anticipato in tema di giustizia predittiva) richiede una soggettività umana. Si richiama dunque quanto sottolineato in dottrina: “<em>l’algoritmo non sa distinguere tra ciò che è giusto e ciò che è solo regolare, tra ciò che è conforme e ciò che è equo; non sa risolvere i conflitti di valori, né motivare una decisione sulla base di principi generali</em>”<a href="#_ftn30" name="_ftnref30">[30]</a>.</p>
<p style="text-align: justify;">Di contro, i sostenitori di una piena sostituibilità del giudice umano ritengono non solo possibile, ma anche auspicabile, l’introduzione di sistemi di Intelligenza Artificiale nell’attività giurisdizionale, individuando quale principale vantaggio una maggiore efficienza nei tempi di definizione delle controversie. La riduzione dei “tempi della giustizia” darebbe attuazione a quel principio costituzionale espresso all’art. 111 Cost., che ha portato a varie condanne in capo all’Italia, della ragionevole durata del processo.  Un ulteriore beneficio individuato è quello della diminuzione dell’“errore umano”, del kantiano “legno storto” di cui è fatto l’uomo<a href="#_ftn31" name="_ftnref31">[31]</a>. Conseguentemente si assicurerebbe un grado massimo di certezza giuridica e di uguaglianza di fronte alla legge dai pregiudizi e dalle irregolarità fisiologicamente connesse alla natura umana. A scopo esemplificativo, si riporta una celebre ricerca condotta negli Stati Uniti, dalla quale è emerso come i giudici siano più propensi a concedere la libertà condizionale all’inizio della giornata o subito dopo una pausa, e meno inclini a farlo immediatamente prima di una pausa.<a href="#_ftn32" name="_ftnref32">[32]</a> Quanto rilevato suggerisce la presenza di <em>bias </em>cognitivi legati alla fatica decisionale umana, assente in un sistema di IA. La giustizia digitale predittiva potrebbe, in questa prospettiva, riportare il giudizio entro confini più certi, restituendo alla funzione giurisdizionale una maggior prevedibilità e calcolabilità che ha storicamente accompagnato la formazione dello Stato Moderno e del modello economico capitalistico.<a href="#_ftn33" name="_ftnref33">[33]</a></p>
<p style="text-align: justify;">Tale visione sembra dimenticare che l’attività di <em>ius dicere</em> implica una preliminare attività di ricostruzione della fattispecie reale e concreta, di accertamento e valutazione delle prove, che richiede la capacità di cogliere <em>nuance</em> culturali, emotive e contestuali che non possono essere pienamente tradotte in dati strutturati. La macchina non è in grado di valutare la credibilità di un testimone, interpretare il silenzio, l’ironia o la reticenza. Ancora, non è in grado di distinguere elementi utili, dagli inutili, ai fini decisori operando una problematica semplificazione del reale<a href="#_ftn34" name="_ftnref34">[34]</a>. Per quanto attiene il piano dell’attività interpretativa del diritto, la macchina non riesce a bilanciare principi e valori, o attribuire agli stessi un contenuto concreto. Vi è un’oggettiva impossibilità di tradurre in una formula matematica il significato, e lo spettro di applicabilità, di concetti giuridici indeterminati; a titolo esemplificativo in ambito penale la valutazione della prova – grave, precisa e concordante – è ancorata alla prudenza del giudice. Tale capacità critica, inclusa la possibilità di dubitare, sospendere il giudizio o sollevare questioni di legittimità costituzionale, è intrinsecamente umana e difficilmente riproducibile da sistemi algoritmici, anche complessi.<a href="#_ftn35" name="_ftnref35">[35]</a></p>
<p style="text-align: justify;"> A ciò si aggiunge l’impossibile traducibilità in una funzione matematica dell’interpretazione evolutiva della norma. Un’esigenza della società prima di giungere alla rilevanza del potere legislativo, dapprima viene percepita, e quindi tutelata, dal potere giurisdizionale. Infatti, i modelli di IA di giustizia predittiva, che calcolano la soluzione sui dati disponibili pregressi portano a un irrigidimento del diritto vivente, riducendo la vitalità dell’ordinamento e la sua capacità di adattarsi alle mutevoli esigenze sociali.</p>
<ol style="text-align: justify;" start="5">
<li><em>L’algoritmo non può indossare la toga: l’uso esclusivamente strumentale dell’IA</em></li>
</ol>
<p style="text-align: justify;">Un discorso differente può essere avanzato sul tema di un utilizzo dei sistemi di Intelligenza Artificiale come mero supporto del giudice nell’espletamento delle proprie funzioni. In tale prospettiva, l’IA non si configura come un soggetto decisionale, bensì come una tecnologia servente, destinata a supportare il giudice nello svolgimento di attività preparatorie, organizzative o di analisi, senza interferire con il nucleo essenziale della funzione giurisdizionale. È, dunque, possibile analizzare la giurisprudenza e la normativa sul punto.</p>
<ul style="text-align: justify;">
<li><em>L’elaborazione pretoria dei c.d. principi di legalità algoritmica</em></li>
</ul>
<p style="text-align: justify;">Un ruolo di precursore, sul più ampio tema &#8211; non esclusivo del settore giustizia &#8211; dell’uso di sistemi di IA nell’attività decisoria in generale, è stato rivestito dalla giurisprudenza amministrativa. In particolare, dapprima i T.A.R.<a href="#_ftn36" name="_ftnref36">[36]</a>, e di seguito il Consiglio di Stato<a href="#_ftn37" name="_ftnref37">[37]</a>, con le loro pronunce, hanno elaborato in via pretoria un nucleo essenziale di principi di legalità algoritmica, fungendo da parametri di riferimento per il successivo sviluppo normativo. I tre principi di legalità algoritmica individuati dal Consiglio di Stato nella sentenza n. 8472 del 13 dicembre 2019<a href="#_ftn38" name="_ftnref38">[38]</a> sono quelli di: conoscibilità, non esclusività e non discriminazione.</p>
<p style="text-align: justify;">Partendo nell’analisi dal primo, il principio di conoscibilità dell’algoritmo, è inteso come possibilità effettiva di comprendere le logiche decisionali sottese al sistema automatizzato. Ciò si lega al principio di motivazione dell’atto amministrativo, che, nel caso dell’algoritmo, diviene motivo della logica computazionale stessa. Il punto centrale è che la complessità tecnica non può tradursi in opacità giuridica dovendo essere accessibile, intelligibile e sindacabile. In secondo luogo, il principio di non esclusività della decisione algoritmica, impone la presenza di un intervento umano effettivo nel processo decisionale. Ciò in quanto l’autorità pubblica mantiene la titolarità del potere decisionale, dovendo poter intervenire, correggere e verificare il risultato algoritmico. Tale principio, secondo una lettura in chiave positiva &#8211; e non negativa, come qui operato &#8211; può essere visto come una riserva di umanità algoritmica, c.d <em>Human In The Loop </em>(HITL)<a href="#_ftn39" name="_ftnref39">[39]</a>. Infine, si rinviene il principio di non discriminazione, atto a evitare che l’automazione produca risultati distorsivi, irragionevoli o discriminatori sulla base di categorie sensibili quali razza, origine etnica, opinioni politiche, religione, convinzioni personali, appartenenza sindacale, patrimonio genetico, stato di salute e orientamento sessuale. Una situazione problematica si determina quando la macchina diviene uno schermo di automatismi iniqui inconsci, che vengono così perpetrati. Un’accorta analisi nella fase di programmazione e supervisione può aiutare però a combattere questi <em>bias </em>sistemici inconsci, che, rispetto a quelli umani, sono più facilmente individuabili.</p>
<p style="text-align: justify;">Tali principi costituiscono lo “<em>statuto giuridico della decisione informatizzata</em>”, così come definito dallo stesso Consiglio di Stato. Tali approdi, sebbene maturati in relazione all’attività amministrativa, hanno costituito il sostrato concettuale su cui si è innestata la successiva regolazione dell’uso dell’IA anche in ambito giudiziario a livello interno, rafforzando l’idea che la tecnologia possa essere ammessa solo a condizione di rimanere subordinata al controllo umano e alla responsabilità del decisore.</p>
<p style="text-align: justify;">Questa visione si pone perfettamente in linea con gli strumenti di <em>soft law</em><a href="#_ftn40" name="_ftnref40">[</a><a href="#_ftn40" name="_ftnref40"><span style="text-decoration: underline;">40]</span></a> che hanno avuto un ruolo determinante nel creare un ecosistema valoriale di riferimento per l’impiego dell’Intelligenza Artificiale, con una forte impronta <em>human-centric</em>.</p>
<ol style="text-align: justify;" start="6">
<li><em>La regolazione multilivello dell’Intelligenza Artificiale tra uniformazione europea e autonomia statale </em></li>
</ol>
<p style="text-align: justify;"><em> </em></p>
<ul style="text-align: justify;">
<li><em>Il Regolamento (UE) 2024/1689, c.d. AI Act</em></li>
</ul>
<p style="text-align: justify;">Il percorso avviato dalla giurisprudenza e dalla <em>soft law</em> ha trovato una sistematizzazione normativa organica e vincolante nell’Unione europea con il Regolamento (UE) 2024/1689, noto come <em>AI Act</em><a href="#_ftn41" name="_ftnref41">[41]</a>, in attuazione di un approccio orientato alla ricerca di un equilibrio tra promozione dell’innovazione tecnologica e tutela dei diritti fondamentali. Tale impostazione emerge sin dal considerando n.1 del Regolamento, onde viene esplicitato l’obiettivo di promuovere un’Intelligenza Artificiale “antropocentrica e affidabile”, idonea a rafforzare il mercato interno senza compromettere la democrazia, lo Stato di diritto e la protezione dei diritti fondamentali.</p>
<p style="text-align: justify;">La struttura della strategia normativa europea si fonda sulla classificazione dei sistemi di IA in base al livello di rischio, a cui corrispondono speculari obblighi differenziati e proporzionati. Tale approccio consente di modulare l’intensità della regolamentazione in funzione dell’impatto potenziale del sistema sui diritti e sulle libertà delle persone. È dunque prevista altresì un’implementazione graduale ed efficace delle nuove norme, attraverso variabili tempi di attuazione, sino alla completa applicazione del Regolamento nell’agosto 2026<a href="#_ftn42" name="_ftnref42">[42]</a>, con la conseguente attivazione dell’intero sistema di governance europeo e nazionale. In particolare, ogni Stato membro dovrà designare la propria autorità nazionale competente per la vigilanza e l’e<em>nforcement</em>, che verrà poi coordinata dall’<em>AI Board</em>, ai fini di una corretta applicazione del Regolamento. In Italia si è adottata la strada della diversificazione delle competenze, distribuite tra: AgID per gli aspetti tecnici; Garante Privacy per i dati personali; ACN per la cybersecurity. Pertanto, i soggetti dovranno interfacciarsi con una molteplicità di autorità per rendere legittimamente operativo il proprio sistema di IA.</p>
<p style="text-align: justify;">Non potendo analizzare in modo approfondito il Regolamento, per limiti espositivi e tematici, si rimanda per quanto attiene all’ambito di applicazione, alle definizioni, alle categorie di rischio e ai conseguenti obblighi, ad ulteriori approfondimenti<a href="#_ftn43" name="_ftnref43">[43]</a>, soffermandoci in questa sede sul tema dell’uso dell’IA nel settore della giustizia.</p>
<ul style="text-align: justify;">
<li><em>La giustizia nell’era dell’AI Act</em></li>
</ul>
<p style="text-align: justify;">L’impostazione del Regolamento (UE) 2024/1689 segue quella già tracciata dalla <em>&#8220;Carta Etica europea sull&#8217;utilizzo dell&#8217;Intelligenza Artificiale nei sistemi giudiziari&#8221;, </em>introdotta nel dicembre 2018 dalla Commissione europea per l’efficienza della giustizia (CEPEJ), sull’ inclusione dell&#8217;amministrazione della giustizia tra i settori di utilizzo dei sistemi di IA ad alto rischio. Tale classificazione è operata ai sensi del combinato disposto dell’art. 6, par. 2<a href="#_ftn44" name="_ftnref44">[44]</a>, con l’allegato III, n. 8, lett. a), dell’AI Act, ove vengono inclusi quei sistemi: “<em>destinati a essere usati da un&#8217;autorità giudiziaria o per suo conto per assistere un&#8217;autorità giudiziaria nella ricerca e nell&#8217;interpretazione dei fatti e del diritto e nell&#8217;applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie</em>”<a href="#_ftn45" name="_ftnref45">[45]</a>.</p>
<p style="text-align: justify;">I sistemi che rientrano in tale livello di rischio devono rispettare un articolato complesso di obblighi, tra i quali assumono rilievo centrale quelli di trasparenza, tracciabilità e sorveglianza umana (artt. 9–15 AI Act), nonché, in caso di utilizzo dell’IA generativa, di quelli previsti nel Capo V del Regolamento, che disciplina i modelli a uso <em>general purpose</em>. Sempre per ragioni di limitatezza espositiva, tali obblighi non verranno qui trattati, ma si riporta tra questi, quanto disposto dall’art. 14 del Regolamento. Tale articolo impone che questi sistemi siano progettati e sviluppati in modo da consentire una supervisione effettiva (<em>human in the loop</em>), idonea a prevenire o correggere risultati erronei, distorsivi o discriminatori, ciò al fine ultimo di garantire che l’IA non si trasformi in un decisore occulto, ma resti un mero strumento ausiliario; principio che vale anche per l’attività giurisdizionale. La centralità del giudice umano è stata recentemente approfondita nelle Linee guida dell’UNESCO sull’uso dei sistemi di intelligenza artificiale nelle corti e nei tribunali, il 3 dicembre 2025<a href="#_ftn46" name="_ftnref46">[46]</a>, onde viene chiarito che i sistemi di IA possono essere utilizzati esclusivamente come strumenti di supporto alle attività giudiziarie, senza mai incidere sulla titolarità e responsabilità della decisione.</p>
<p style="text-align: justify;">È bene però precisare che un sistema di IA rientra nella categoria ad alto rischio solo quando esso è in grado di influenzare materialmente l’esito del processo decisionale, ai sensi dell’art. 6, par. 3 AI Act. Sul punto, anche il considerando n. 53<a href="#_ftn47" name="_ftnref47">[47]</a> dell’AI Act ribadisce che sono esclusi dalla qualificazione di “alto rischio” quei sistemi destinati a svolgere compiti procedurali limitati e meccanici, tra i quali possiamo annoverare la gestione dei fascicoli, l’indicizzazione, la ricerca documentale, la traduzione o altre attività amministrative semplici.</p>
<p style="text-align: justify;">Si può dunque affermare che, nell’intero impianto dell’AI Act, il rischio non è individuato nella tecnologia in sé, bensì nell’impatto che l’uso dell’IA può avere su diritti fondamentali e garanzie processuali.  In virtù di ciò, a titolo esemplificativo, il Regolamento include tra i sistemi ad altro rischio quelli destinati ad essere utilizzati per valutare l&#8217;affidabilità degli elementi probatori nel corso delle indagini o del perseguimento dei reati, ovvero per determinare il rischio di recidiva.</p>
<p style="text-align: justify;">Diversamente da quanto è prospettabile in astratto, nella realtà concreta diviene complesso riuscire a scindere le ipotesi in cui vi sia, o non vi sia, un’influenza del sistema nella decisione umana; ciò proprio a fronte della inscindibilità dell’esito dell’interrelazione sistema-giudice (seguendo uno scambio continuo di <em>input </em>e <em>output</em>). Ne consegue che, richiamando i due concetti elaborati dal Premio Nobel per l’economia Kahneman<a href="#_ftn48" name="_ftnref48">[48]</a>, si possono distinguere: il “<em>Sistema 1” </em>(decisioni intuitive, rapide e automatiche) e il “<em>Sistema 2” </em>(decisioni razionali, lente e analitiche), nonché un terzo sistema, sintesi tra rapidità induttiva e riflessione razionale, chiamato “<em>Sistema 0</em>”.<a href="#_ftn49" name="_ftnref49">[49]</a> Quest’ultimo si configura come una sorta di “estensione cognitiva” — come la definirebbero i filosofi Clark e Chalmers<a href="#_ftn50" name="_ftnref50">[50]</a> — esterna al nostro cervello che “potenzia” le nostre capacità cognitive riuscendo a elaborare autonomamente grandi quantità di informazioni che sarebbero difficili da gestire per la mente umana, ma che necessitano comunque della stessa per poter dare un senso compiuto ai dati.</p>
<p style="text-align: justify;">In continuità con l’AI Act, nonché con la “<em>Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari</em>”, la CEPEJ ha approfondito, con specifico riferimento all’Intelligenza Artificiale generativa, i principi di neutralità tecnologica e di sussidiarietà nelle “<em>Linee guida sull’uso dell’intelligenza artificiale generativa per le corti</em>” del 5 dicembre 2025<a href="#_ftn51" name="_ftnref51">[51]</a>. Per quanto attiene all’IA generativa, con un’estensione concettuale anche agli LLM, essendo la stessa strutturalmente esposta al rischio di <em>hallucinations</em> cognitive, dovrebbe essere utilizzata solo in presenza di inefficienza o ineffettività di soluzioni tecnologiche alternative, e comunque previo svolgimento di valutazioni di rischio e di impatto a monitoraggio continuo. Ciò non esclude, tuttavia, i significativi benefici che l’IA generativa può offrire nel contesto professionale giudiziario attraverso una molteplicità di operazioni ausiliarie e strumentali, fermo restando l’obbligo di un’adeguata formazione del personale e degli utenti istituzionali.</p>
<p style="text-align: justify;">Possiamo concludere col dire che: più che strumento repressivo, l’AI Act è uno strumento di regolazione preventiva, che promuove una cultura di governance interna, di etica tecnologica e di responsabilità d’impresa. Ciò al fine ultimo di dare rinnovato vigore ai diritti fondamentali e alla dignità umana, secondo uno sguardo antropocentrico nell’impetuoso progresso tecnologico.</p>
<p style="text-align: justify;">
<ul style="text-align: justify;">
<li><em>La disciplina interna dell’Intelligenza Artificiale: una regolazione in attesa di attuazione</em></li>
</ul>
<p style="text-align: justify;">La lacuna normativa, protrattasi per anni nell’ordinamento italiano, si inserisce in un più ampio contesto di “digitalizzazione di facciata”, ben presente ancora oggi, in cui le innovazioni si traducono in una mera trasposizione dei modelli cartacei in formato digitale, senza una reale riforma dei processi organizzativi e, soprattutto, mentali degli operatori del diritto che possa consentire a questi strumenti di esprimere appieno le loro potenzialità<a href="#_ftn52" name="_ftnref52">[52]</a>. In questo senso, si parla di “<em>una digitalizzazione di facciata che ha semplicemente trasferito fogli di carta […] dentro i computer”.</em><a href="#_ftn53" name="_ftnref53">[53]</a></p>
<p style="text-align: justify;">Tale <em>vulnus </em>è stato oggi in parte colmato dal legislatore italiano con la legge 23 settembre 2025, n. 132, recante <em>“Disposizioni e deleghe al Governo in materia di Intelligenza Artificiale”</em><a href="#_ftn54" name="_ftnref54">[54]</a><em>, </em>emanata in adempimento dell’obbligo di dare attuazione alle prescrizioni eurounitarie. Va precisato che il Regolamento (UE) 2024/1689, ai sensi dell’art. 288, par. 2, TFUE, è direttamente applicabile negli ordinamenti degli Stati membri e non richiede recepimento. La legge n. 132/2025 risponde, pertanto, a esigenze di coordinamento, sistemico, di adeguamento dell’ordinamento nazionale ai profili organizzativi e istituzionali richiesti dall’AI Act, nonché di disciplina degli ambiti rimessi alla competenza statale; il tutto nel rispetto del primato del diritto dell’Unione. L’armonia con la normativa eurounitaria si è determinata anche alla luce dell’emanazione di un parere circostanziato (C (2024) 7814) del 5 novembre 2024 della Commissione Europea, con cui veniva richiesto un maggior allineamento alla disciplina europea<a href="#_ftn55" name="_ftnref55">[55]</a>. Tale rilievo di conformità con l’AI Act, è stato in parte superato con il rinvio alle definizioni previste dal Regolamento, nonché con l’introduzione del comma 5 dell’art 3 L.132/2025 che così recita: “<em>La presente legge non produce nuovi obblighi rispetto a quelli previsti dal regolamento (UE) 2024/1689 per i sistemi di Intelligenza Artificiale e per i modelli di Intelligenza Artificiale per finalità generali”. </em>Ancora, all’art. 1 L.132/2025 viene individuato proprio il Regolamento AI Act come parametro interpretativo della legge.</p>
<p style="text-align: justify;">Di contro, permangono attriti con la normativa europea, a titolo esemplificativo la scelta, all’art. 20<a href="#_ftn56" name="_ftnref56">[56]</a> L.132/2025, di individuare come autorità nazionali di vigilanza e controllo le Autorità governative AGID e ACN. L’incongruenza deriva proprio dalla natura governativa delle stesse, che pone il rischio di una diminuzione della garanzia dell’indipendenza. Altre preoccupazioni riguardano l’imposizione degli obblighi e limiti, più rigidi rispetto a quelli previsti a livello europeo, gravanti sui settori come sanità, professioni intellettuali e, appunto, giustizia. Inoltre, il legislatore italiano sembra voler mantenere margini di autonomia nella regolazione di alcuni profili particolarmente sensibili, richiamati dall’art. 5, comma 1, lett. d), della l. n. 132/2025, quali l’introduzione di vincoli territoriali sulla localizzazione dei server impiegati dai sistemi di Intelligenza Artificiale utilizzati dalle pubbliche amministrazioni, nonché la previsione di criteri di preferenza per fornitori nazionali di soluzioni di IA. Tali scelte, pur essendo giustificate da esigenze di sicurezza, protezione dei dati e sovranità digitale, si collocano in una potenziale area di tensione con i principi fondanti l’ordinamento dell’Unione europea in materia di libera concorrenza e libera circolazione dei servizi, come declinati nel TFUE, in particolare con riferimento agli artt. 49, 56 e 101–109 TFUE. Ciò può portare a conseguenze in termini di apertura di una procedura d’infrazione a carico dell’Italia o di una disapplicazione della normativa interna da parte del giudice nazionale.</p>
<p style="text-align: justify;">Tornando all’analisi del dato normativo interno, questo si presenta come una legge delega a forte contenuto programmatico, caratterizzato da un impianto valoriale dichiaratamente ispirato ai principi di centralità della persona, trasparenza, responsabilità, controllo umano e tutela dei diritti fondamentali (ad esempio, il pieno accesso alle funzionalità dei sistemi di IA per le persone con disabilità, su base di uguaglianza e non discriminazione).</p>
<p style="text-align: justify;">Relativamente al tema di nostro interesse, dell’utilizzo dei sistemi di IA in sostituzione e/o in ausilio al giudice, il fulcro della disciplina è contenuto nel Capo II, recante le discipline settoriali differenziate, all’art. 15, rubricato “<em>Impiego dei sistemi di Intelligenza Artificiale nell&#8217;attività giudiziaria</em>”. Qui, l’utilizzo dei sistemi di IA viene rigorosamente circoscritto dal comma 1, mediante una riserva esclusiva del magistrato relativamente all’interpretazione e applicazione della legge, alla valutazione dei fatti e delle prove, nonché all’adozione dei provvedimenti giudiziari. In quest’ottica, l’adozione dei modelli intelligenti si dovrebbe limitare a funzioni ausiliarie o di supporto, nelle attività di organizzazione e semplificazione del lavoro giudiziario, nonché a quelle amministrative accessorie. Tali consentiti impieghi, ai sensi del comma 2 dell’art. 15 l.132/2025, saranno disciplinati dal Ministero della Giustizia. Inoltre, il Ministero, sentite AGID e ACN, dovrà autorizzare le sperimentazioni<a href="#_ftn57" name="_ftnref57">[57]</a> negli uffici giudiziali di sistemi di IA, sino alla compiuta applicazione dell’AI Act<a href="#_ftn58" name="_ftnref58">[58]</a>. Infine, secondo il comma 4, il Ministro della Giustizia, nell’elaborazione delle linee programmatiche sulla formazione dei magistrati, dovrà individuare un percorso formativo obbligatorio per i magistrati e per il personale amministrativo per un uso consapevole, critico e responsabile delle tecnologie automatizzate.</p>
<p style="text-align: justify;">Alla luce di tale impostazione, è possibile rilevare come la formulazione della legge n. 132 del 2025, nel riferirsi in modo ampio alla “organizzazione dei servizi” e alla “semplificazione del lavoro giudiziario”, rischia di generare ambiguità interpretative, nella misura in cui potrebbe indurre a ricondurre nell’area “neutra” degli impieghi anche applicazioni che, pur non sostituendo formalmente il giudice, incidono in modo significativo sulle fasi cognitive preparatorie della decisione. Tale rischio è limitato dalla circostanza che vede prevalere la qualificazione europea del sistema come ad alto rischio, non eludibile da una diversa qualificazione nazionale. Infatti, il criterio adottato dal legislatore europeo è di natura sostanziale e funzionale, fondato sull’impatto concreto dell’attività automatizzata sul processo decisionale, indipendentemente dalla sua qualificazione formale. Sul punto, il considerando n. 61 qualifica come <em>high-risk</em> i sistemi destinati ad assistere le autorità giudiziarie nell’esercizio delle loro funzioni, escludendo da tale categoria esclusivamente quelli impiegati per attività amministrative puramente accessorie, prive di incidenza sull’effettiva risoluzione dei singoli casi. Inoltre, si richiama il succitato parere circostanziato della Commissione europea, con cui si è invitata l’Italia a non discostarsi dal sistema di classificazione armonizzato previsto dall’AI Act, evitando sia di estendere la categoria delle pratiche vietate oltre i limiti tassativi dell’articolo 5 AI Act, sia di escludere in via generalizzata l’impiego di sistemi qualificati come ad alto rischio che, in concreto, non incidano materialmente sull’esito del processo decisionale e non presentino un rischio significativo per i diritti fondamentali. Il Regolamento europeo, nel suo articolo 5, riserva divieti espressi e tassativi per pratiche considerate intrinsecamente incompatibili con i diritti fondamentali, vietando anzitutto i sistemi di IA che impiegano tecniche subliminali, manipolative o ingannevoli idonee a distorcere in modo sostanziale il comportamento di una persona, così come quelli che sfruttano vulnerabilità legate all’età, alla disabilità o a specifiche condizioni socio-economiche, qualora ne derivi o possa derivarne un danno significativo. Sono altresì vietate le pratiche di <em>social scoring</em>, ossia i sistemi che valutano o classificano l’affidabilità sociale delle persone sulla base del loro comportamento o di caratteristiche personali, determinando trattamenti pregiudizievoli o sproporzionati, specialmente quando tali valutazioni siano utilizzate in contesti diversi da quelli in cui i dati sono stati originariamente raccolti. Inoltre, non è ammessa la creazione o l’ampliamento di banche dati di riconoscimento facciale mediante raccolta indiscriminata di immagini, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e i sistemi di riconoscimento delle emozioni in contesti quali il lavoro e l’istruzione. Infine, è vietato, salvo eccezioni rigorosamente delimitate, l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico per finalità di contrasto.</p>
<p style="text-align: justify;">Proseguendo con i profili di ambiguità e criticità, nel passaggio dal comma 1 ai commi 2 e 3 dell’art. 15 L.132/2025 viene attribuito al Ministro della Giustizia un ruolo centrale, non solo nella definizione delle linee programmatiche per la formazione dei magistrati, ma anche nella disciplina e nell’autorizzazione degli impieghi dei sistemi di IA nell’organizzazione dei servizi giudiziari. Questa scelta, sebbene rispondente alla volontà di dotare l’ordinamento di regole operative per l’uso della tecnologia in settori sensibili, solleva questioni di coerenza con i principi costituzionali di autonomia e indipendenza della magistratura. Infatti, la materia dell’Intelligenza Artificiale — pur muovendosi nell’ambito dell’organizzazione amministrativa dei servizi — si intreccia inevitabilmente con la struttura interna degli uffici giudiziari e con il modo in cui l’attività giurisdizionale viene gestita nella quotidianità. Peraltro, la formula secondo cui il Ministero della Giustizia “disciplina” lascia aperta la questione se si tratti di atti regolamentari, linee guida, protocolli tecnici o mere circolari amministrative. La Costituzione, infatti, non tutela soltanto l’elemento decisorio della funzione giurisdizionale — riservato al giudice — ma anche la sua autonomia funzionale in ordine all’organizzazione delle attività interne e alla determinazione delle condizioni di esercizio della giurisdizione.</p>
<p style="text-align: justify;">Ad accrescere le perplessità verso l’art. 15 L. 132/2025 è la totale assenza di tutela dell’autonomia delle giurisdizioni ulteriori rispetto a quella ordinaria, ovverosia la giurisdizione amministrativa, contabile, tributaria e militare. Ciascuna giurisdizione, a garanzia della propria pretesa autonomia, dispone di un organo di autogoverno, che nello specifico caso di quella amministrativa, è il Consiglio di Presidenza della Giustizia Amministrativa.</p>
<p style="text-align: justify;">Paradossale è che non vi sia alcun riferimento all’art.15 ad un coordinamento con la giurisdizione amministrativa, la quale, ben prima dell’emanazione della legge nazionale, ha affrontato in modo sistematico e creativo il rapporto tra tecnologia automatizzata e funzioni pubbliche. La mancata valorizzazione di tale patrimonio, unitamente all’adozione di una disciplina che sembra modellata più sulla giurisdizione ordinaria che sulla pluralità degli assetti giurisdizionali italiani, rischia di dar luogo ad asimmetrie applicative e violazioni di autonomie costituzionalmente protette.</p>
<ul style="text-align: justify;">
<li><em>Prospettive applicative della L.132/2025</em></li>
</ul>
<p style="text-align: justify;">Si dovrà pertanto attendere, data la natura della legge prevalentemente programmatica, per comprendere l’effettività della disciplina e la conformità all’AI Act, l’attuazione dell’ampia delega conferita al Governo. Quest’ultimo dovrà adottare, una serie di decreti legislativi, tra cui, a titolo esemplificativo, come disposto dall’art. 16, quelli volti a delineare gli obblighi in materia di utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di IA.</p>
<p style="text-align: justify;">Lo stato di attuazione della norma, inoltre, dovrà seguire, sempre secondo la L.132/2025, quanto disposto nella Strategia nazionale per l’Intelligenza Artificiale, elaborata almeno una volta ogni due anni, dalla struttura della Presidenza del Consiglio dei ministri competente per l’innovazione tecnologica e la transizione digitale, in collaborazione con le Autorità nazionali per l’IA, previa consultazione dei Ministeri maggiormente coinvolti, e approvata da parte del Comitato interministeriale per la transizione digitale. La Strategia sarà atta a promuovere la collaborazione tra settore pubblico e privato, incentivare la ricerca e la formazione, nonché indirizzare le misure per lo sviluppo imprenditoriale e industriale dell’IA, nel rispetto dei principi del diritto internazionale umanitario e della tutela dei diritti umani. Inoltre, è stato individuato un “<em>Comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni attivi nell’innovazione digitale e nell’IA</em>” &#8211; composto dai ministri e dalle autorità competenti &#8211; e presieduto dal Presidente del Consiglio o da un’Autorità a ciò delegata &#8211; chiamato a coordinare e promuovere le attività di ricerca, sviluppo, sperimentazione e formazione svolte da enti pubblici e privati vigilati o finanziati dallo Stato.</p>
<p style="text-align: justify;">Nel complesso, la legge 132/2025 non introduce un modello di giustizia algoritmica, ma consolida un paradigma di uso strumentale, vigilato e costituzionalmente orientato dell’Intelligenza Artificiale, nel quale la tecnologia è ammessa solo nella misura in cui rafforzi, e non indebolisca o sostituisca, la centralità del giudice.</p>
<ol style="text-align: justify;" start="7">
<li><em>Il Consiglio Superiore della Magistratura e l’IA: indirizzi, limiti e prospettive concrete</em></li>
</ol>
<p style="text-align: justify;">Nel delineato contesto, segnato da una regolamentazione ancora incompleta e da un’ampia incertezza applicativa &#8211; nelle more dell&#8217;adozione, da parte del Ministero della Giustizia, di disposizioni sull’Intelligenza Artificiale (anche generativa) a supporto delle attività giurisdizionali e della piena applicazione degli obblighi contenuti nel Regolamento AI Act &#8211; si collocano le Raccomandazioni del Consiglio Superiore della Magistratura (CSM) dell’8 ottobre 2025<a href="#_ftn59" name="_ftnref59">[59]</a>.</p>
<p style="text-align: justify;">Tali Raccomandazioni costituiscono un rilevante punto di riferimento operativo per l’uso dell’Intelligenza Artificiale nell’amministrazione della giustizia ordinaria. In quanto atto di indirizzo emanato dall’organo di autogoverno della magistratura ordinaria, esse assumono, per le altre giurisdizioni, un valore meramente persuasivo, fondato sull’autorevolezza dell’organo emanante e sulla funzione di orientamento sistematico che esse svolgono, soprattutto in assenza, allo stato, di analoghe indicazioni provenienti dai rispettivi organi di autogoverno (successivamente all’entrata in vigore della L. n. 132/2025).</p>
<p style="text-align: justify;">Venendo al contenuto delle Raccomandazioni, in principio, viene specificato che<em>: “l&#8217;impiego di questa tecnologia non si limita a una funzione meramente strumentale o organizzativa, come avviene nel caso degli applicativi tradizionali per la scrittura, la catalogazione o la ricerca documentale, i quali si limitano ad eseguire comandi impartiti dall&#8217;utente. I sistemi di Intelligenza Artificiale possono invece essere utilizzati per supportare e non sostituire, alcune fasi preparatorie dell&#8217;attività decisionale, offrendo sintesi, suggerimenti o correlazioni informative che affiancano il ragionamento umano senza determinarne gli esiti”</em><a href="#_ftn60" name="_ftnref60">[60]</a>.</p>
<p style="text-align: justify;">Di seguito, vengono individuati i rischi connessi all’uso dell’IA, ponendo una particolare attenzione alle allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva) e ai cd. <em>sycophancies </em>(generazioni di contenuti compiacenti), in quanto fenomeni intrinseci alla natura probabilistica dei modelli di Intelligenza Artificiale generativa. L’alea degli esiti prodotti da questi sistemi impone un costante e critico controllo umano, nonché un rigido presidio di trasparenza e verificabilità.</p>
<p style="text-align: justify;">Nell’attuale fase transitoria, il CSM ha dunque individuato, in concreto, un insieme di impieghi dei sistemi intelligenti compatibile con i principi costituzionali, con i diritti delle parti e con la disciplina eurounitaria, precisando, tuttavia, come tali indicazioni non vogliano essere esaustive, ma servano da orientamento operativo per gli uffici giudiziari. Troviamo: ricerche dottrinali, sintesi di provvedimenti ostensibili e contributi dottrinali, organizzazione del lavoro giudiziario, supporto agli uffici c.d. &#8220;affari semplici&#8221;, supporto ad attività giurisdizionali gestionali attraverso il controllo della documentazione (soprattutto contabile nonché delle certificazioni) prodotta in atti ove opportunamente anonimizzata, confronto tra soluzioni tecniche per la gestione fascicoli, generazione automatica di presentazioni (slides), produzione di tabelle e grafici, revisione linguistica e stilistica di testi, catalogazione e archiviazione per materia dei quesiti ai CTU, predisposizione di calendari d&#8217;udienza, traduzione assistita e correzione ortografica.</p>
<p style="text-align: justify;">Occorre tuttavia precisare che anche attività apparentemente neutre, quali la sintesi automatizzata degli atti del fascicolo o l’estrazione di passaggi ritenuti rilevanti, non sono ontologicamente prive di incidenza sul processo decisionale. Infatti, ogni operazione di selezione e compressione informativa implica criteri di rilevanza, talora impliciti, che possono orientare l’attenzione del magistrato e influenzarne, almeno indirettamente, il percorso argomentativo<a href="#_ftn61" name="_ftnref61">[61]</a>.</p>
<p style="text-align: justify;">Tra gli ambiti di impiego dell’Intelligenza Artificiale individuati come particolarmente delicati, rientra anche quello delle ricerche giurisprudenziali, che presenta una natura intrinsecamente bifronte. Se, da un lato, l’IA può costituire un valido strumento di supporto alla consultazione delle banche dati, consentendo la costruzione e l’esecuzione di stringhe di ricerca complesse e semanticamente raffinate, dall’altro lato l’automatizzazione dei criteri di selezione dei precedenti o la loro organizzazione secondo determinate ricorrenze statistiche può incidere, se non adeguatamente governata, sull’attività valutativa del giudice. In particolare, l’impiego di strumenti che, pur senza formulare decisioni, tenda a evidenziare orientamenti giurisprudenziali prevalenti o ricorrenti rischia di produrre dinamiche di cristallizzazione interpretativa.  Tuttavia, tale rischio non è ineluttabile, potendo &#8211; questi sistemi che applicano logiche di giustizia predittiva &#8211; essere progettati e utilizzati secondo logiche di trasparenza e pluralismo informativo. Così facendo, i medesimi strumenti possono assolvere alla funzione opposta, portando all’attenzione del magistrato anche orientamenti minoritari o dissonanti della giurisprudenza, agevolando ricerche più mirate e favorendo una più consapevole diversificazione delle opzioni interpretative, in un’ottica riflessiva e stimolante del panorama giurisprudenziale; il tutto in tempi più compressi.</p>
<p style="text-align: justify;">Di conseguenza, possiamo affermare che i rischi non sono nulli e, per essere colmati, richiedono una validazione umana effettiva e consapevole; tuttavia, quanto più il controllo si fa penetrante, tanto più si attenua il guadagno in termini di efficienza che giustifica l’impiego dello strumento, rendendo evidente la tensione strutturale tra automazione e garanzia.</p>
<p style="text-align: justify;">I succitati ausili, sempre secondo il CSM, potranno avvenire a fronte di: “<em>una vigilanza stringente su tre piani: la natura e l&#8217;architettura dei sistemi utilizzati, la trasparenza degli algoritmi di selezione e classificazione e il ruolo attivo e critico del magistrato nel vaglio dei risultati”</em><a href="#_ftn62" name="_ftnref62">[</a><a href="#_ftn62" name="_ftnref62">62]</a>. Un altro elemento evidenziato &#8211; in linea con i principi costituzionali di autonomia della funzione giurisdizionale e con la riserva decisionale esclusiva prevista dall’articolo 15 della legge 132/2025 &#8211; è dunque quello della responsabilizzazione diretta del magistrato circa i risultati prodotti dall’IA. Infatti, nelle Raccomandazioni viene esplicitamente espresso come: “<em>Ogni risultato prodotto da sistemi di Intelligenza Artificiale deve essere verificato, corretto e assunto sotto la responsabilità personale del magistrato che decide</em>.”<a href="#_ftn63" name="_ftnref63">[63]</a></p>
<p style="text-align: justify;">Infine, le Raccomandazioni, guardando al futuro, proponendo e incentivando la sperimentazione in ambienti protetti sotto la supervisione congiunta del Ministero della giustizia e del CSM, creando <em>sandbox</em> regolatorie per testare le soluzioni innovative<a href="#_ftn64" name="_ftnref64">[64]</a> in condizioni controllate, garantendo un sistema di audit periodico. Tale impostazione mira a fare della fase transitoria antecedente alla piena applicazione dell’AI Act non un mero periodo di attesa, bensì un’occasione di apprendimento istituzionale e di progressiva maturazione delle competenze, funzionale a un’integrazione dell’Intelligenza Artificiale coerente con i principi dello Stato di diritto.</p>
<p style="text-align: justify;">Nel complesso, la delibera dell’8 ottobre 2025 segna un passo importante nel processo di <em>governance</em> dell’Intelligenza Artificiale nella giustizia, fornendo un memento chiave: l’IA può assistere il magistrato nelle attività strumentali o accessorie che comportano un elevato dispendio di tempo e risorse cognitive, ma non può mai sostituirsi alla valutazione giuridica.  Alla medesima conclusione è giunta l’Unione delle Camere Penali Italiane (UCPI) attraverso l’iniziativa dell’”Osservatorio Scienza, processo e intelligenza artificiale”, costituita per analizzare criticamente l’interfaccia tra IA, diritto penale e processo penale, che ha prodotto un articolato di obiettivi denominato “<em>Carta dei Valori dell’Unione delle Camere Penali Italiane in materia di giustizia penale, scienza e intelligenza artificiale</em>”, presentato a Roma il 17 gennaio 2025<a href="#_ftn65" name="_ftnref65">[65]</a>. Ancora, anche la recente “Carta dei Principi” (c.d. progetto HOROS) adottata dall’Ordine degli Avvocati di Milano, ha individuato un insieme di criteri deontologici per l’uso dell’intelligenza artificiale in ambito forense, fondati sui succitati principi di trasparenza, responsabilità, competenza e, soprattutto, centralità della decisione umana, quale presidio imprescindibile a tutela dei diritti e della fiducia nel sistema giustizia<a href="#_ftn66" name="_ftnref66">[66]</a>.</p>
<ol style="text-align: justify;" start="8">
<li><em>Il Ministero della giustizia e suoi atti di indirizzo e sperimentazione</em></li>
</ol>
<p style="text-align: justify;">Il Ministero della Giustizia, a seguito dell’approvazione della L. 132/2025 e in apertura dell’anno 2026, è intervenuto sul tema, con un atto di indirizzo politico istituzionale<a href="#_ftn67" name="_ftnref67">[67]</a> ove sono state illustrate le priorità da attuare in coerenza con l’azione di Governo e con i principali strumenti di programmazione economico-finanziaria. In particolare, sul piano tecnico e infrastrutturale, ha affermato di puntare all’integrazione dei sistemi di Intelligenza Artificiale a supporto di magistrati e personale amministrativo, al fine di potenziare le funzioni giurisdizionali e organizzative, garantire la piena interoperabilità con gli applicativi ministeriali e migliorare la qualità e la sicurezza delle banche dati giudiziarie e delle funzioni amministrative (riduzione delle vulnerabilità rispetto agli attacchi cyber, la protezione dei dati sensibili, migrazione verso soluzioni cloud).</p>
<p style="text-align: justify;">L’attuazione di tali obiettivi è stata avviata mediante un’attività sperimentale di messa a disposizione, su base volontaria (mediante compilazione di una dichiarazione di volontaria esclusione), per i magistrati togati, della licenza Microsoft Copilot 365<a href="#_ftn68" name="_ftnref68">[68]</a> integrata nel pacchetto Office 365 già in uso.<a href="#_ftn69" name="_ftnref69">[69]</a> Ed è all’evento “Diritti, Algoritmi e Nuovi equilibri”, promosso dalla responsabile del Dipartimento per l’innovazione del Ministero della Giustizia, Antonella Ciriello, che sono stati illustrati i criteri di base e i casi d’uso di questa innovativa sperimentazione<a href="#_ftn70" name="_ftnref70">[70]</a>. Il primo caso d’uso riguarda il supporto alle attività di analisi e rielaborazione del materiale processuale da parte del giudice, in particolare attraverso la predisposizione di schede riepilogative, l’individuazione di passaggi rilevanti nei fascicoli, l’organizzazione delle informazioni utili alla preparazione delle relazioni e delle discussioni collegiali, fino alla previsione di una “funzione di estrattore di orientamenti” (estrattore di PDM personalizzato) da archivi di sentenze. Ulteriori applicazioni quali la predisposizione di schede operative o linee guida destinate agli addetti dell’Ufficio per il Processo (ad esempio, per la verifica delle notifiche degli atti introduttivi), nonché l’elaborazione assistita di punti di motivazione (con una differenziazione tra Agenti Punti di Motivazione basico e personalizzato<a href="#_ftn71" name="_ftnref71">[71]</a>). Il secondo caso d’uso concerne, invece, il supporto organizzativo e gestionale dell’Ufficio del Processo (UPP), come ausilio nel monitoraggio dei dati statistici, delle buone prassi e delle aree di miglioramento, nell’allocazione delle risorse, nonché nell’elaborazione comparativa delle norme legislative, circolari del CSM e dati attuali. Inoltre, può essere un ausilio nella strutturazione di archivi documentali, la predisposizione di indici e tabelle, la gestione di calendari e flussi di lavoro. Anche in questo caso, l’IA è concepita come ausilio strumentale, finalizzato all’efficienza amministrativa e alla razionalizzazione delle attività di contorno alla funzione giurisdizionale.</p>
<p style="text-align: justify;">In tal modo, la sperimentazione si colloca coerentemente nel solco tracciato dalle Raccomandazioni del CSM e dai principi dell’AI Act, configurando l’intelligenza artificiale generativa non come sostituto del giudice, ma come strumento di supporto organizzativo e conoscitivo, utilizzabile solo entro confini rigorosamente presidiati.</p>
<ol style="text-align: justify;" start="9">
<li><em>Il ruolo pionieristico della giurisdizione amministrativa</em></li>
</ol>
<p style="text-align: justify;">La giurisprudenza amministrativa, e in particolare il Consiglio di Stato, nella sentenza n. 8472 del 2019, avevano già individuato condizioni stringenti di legittimità della decisione algoritmica — conoscibilità del sistema, comprensibilità della motivazione, intervento umano correttivo e tutela contro le discriminazioni — che anticipavano i requisiti dei sistemi di IA, successivamente recepiti dal legislatore europeo e, poi, da quello nazionale.</p>
<p style="text-align: justify;">A seguito della succitata pronuncia giurisprudenziale, sempre in uno spirito pionieristico, in un momento antecedente alla normativa italiana (L.132/2025), è stato pubblicato il 4 ottobre 2024 dal Servizio per l’Informatica del Segretariato Generale della Giustizia Amministrativa un documento dal titolo “<em>Intelligenza Artificiale e Giustizia amministrativa: strategie di impiego, metodologie e sicurezza</em>”<a href="#_ftn72" name="_ftnref72">[72]</a>. Tale atto, frutto di un lavoro istituzionale orientato alla concretezza operativa, costituisce un importante riferimento programmatico per l’introduzione e il governo dei sistemi di IA nella sfera della giustizia amministrativa. Nello specifico, il Segretariato generale ha delineato una serie di prescrizioni operative volte a governare l’utilizzo dell’Intelligenza Artificiale negli uffici giudiziari amministrativi, fondate su alcuni assi portanti: (i) la riaffermazione della centralità del giudice umano, quale unico titolare della funzione decisionale; (ii) il divieto di impiego dell’IA per la redazione automatica della motivazione o per la soluzione del caso concreto; (iii) l’ammissibilità dell’IA esclusivamente come strumento di supporto tecnico-organizzativo o di ausilio alla ricerca giurisprudenziale e dottrinale; (iv) l’obbligo di garantire trasparenza, tracciabilità e controllabilità degli strumenti adottati, al fine di evitare forme di opacità incompatibili con i principi del giusto processo.</p>
<p style="text-align: justify;">Il Segretariato Generale ha dato così vita a un’architettura di <em>governance</em> interna dell’IA, fondata su alcuni principi cardine: la centralità del giudice umano quale unico titolare della funzione decisionale; il divieto assoluto di utilizzo dell’IA per la redazione, anche in forma embrionale, dei provvedimenti giurisdizionali; l’ammissibilità dell’IA esclusivamente come strumento di supporto tecnico-organizzativo e conoscitivo; la necessità di assicurare trasparenza, tracciabilità e controllabilità dei sistemi, così da evitare qualsiasi forma di opacità incompatibile con il giusto processo.</p>
<p style="text-align: justify;">Particolarmente significativa, sotto il profilo sistematico, è la scelta di espungere espressamente l’ipotesi della redazione di bozze di sentenze tramite IA, inizialmente affiorata in versioni informali del documento, e consapevolmente espunta proprio per evitare ogni possibile ambiguità sul ruolo dell’algoritmo nel processo decisionale.  Tale scelta segnala una consapevole presa di distanza da modelli di automazione spinta della funzione giurisdizionale e riafferma la natura eminentemente umana della decisione, nonché della motivazione, quale luogo privilegiato di manifestazione della logica adottata.</p>
<p style="text-align: justify;">Proseguendo nell’analisi dell’atto, vengono individuati espressamente, a fini di chiarezza, e riducendo al minimo le ambiguità, i casi d’uso ammessi riconducibili ad attività preparatorie o di approfondimento. I casi d’uso individuati sono limitati ad attività preparatorie, organizzative o di approfondimento, ricondotti a due macro-categorie. La prima comprende applicazioni volte ad agevolare l’attività del giudice senza alcuna componente creativa, quali l’identificazione di ricorsi correlati, la ricerca avanzata di precedenti giurisprudenziali basata su connessioni semantiche e la rilevazione automatica di norme e pronunce richiamate negli atti difensivi. In tali ipotesi, l’Intelligenza Artificiale consente una significativa riduzione del carico cognitivo e dei tempi di consultazione, senza interferire con la valutazione giuridica riservata al giudice. La seconda categoria, più delicata, riguarda l’anonimizzazione dei provvedimenti giurisdizionali, che incide indirettamente anche sulla qualità e sull’affidabilità delle ricerche giurisprudenziali, configurandosi come punto di equilibrio tra due esigenze contrapposte: la protezione dei dati personali e la preservazione della comprensibilità del testo decisionale.</p>
<p style="text-align: justify;">Nel complesso, il modello delineato dal Segretariato Generale della Giustizia Amministrativa può essere letto, in chiave accademica, come un esempio virtuoso di “IA guidata dall’istituzione”: una tecnologia sviluppata e governata dall’interno, con il coinvolgimento diretto dei magistrati, non delegata a fornitori esterni secondo logiche meramente efficientistiche.</p>
<p style="text-align: justify;">In attuazione di tali precetti, il Servizio per l’Informatica del Segretariato Generale della Giustizia Amministrativa<a href="#_ftn73" name="_ftnref73">[73]</a>, ha sviluppato, in via sperimentale, una piattaforma di Intelligenza Artificiale caratterizzata da una governance tecnologica interna e controllata. Infatti, i dati di addestramento dei modelli provengono esclusivamente da database interni, senza ricorso a fonti aperte o esterne, con un evidente rafforzamento delle garanzie di sicurezza e riservatezza. Sono inoltre realizzate <em>pipeline</em> di sviluppo che consentono un controllo puntuale e continuo, di modo che ogni operazione sia tracciabile e spiegabile. Ciò fa sì che la supervisione umana non si esaurisca nella fase di addestramento iniziale, ma prosegua nel <em>fine tuning</em> successivo, in un’ottica di riesame continuo.</p>
<p style="text-align: justify;">La possibilità di avviare progetti di IA nella Giustizia amministrativa è stata resa possibile da tre precondizioni strutturali. In primo luogo, un livello di digitalizzazione già molto elevato<a href="#_ftn74" name="_ftnref74">[74]</a>, senza il quale l’adozione di strumenti di Intelligenza Artificiale sarebbe rimasta puramente teorica. In secondo luogo, scelte infrastrutturali lungimiranti, come la migrazione verso il <em>cloud</em><a href="#_ftn75" name="_ftnref75">[75]</a>. In terzo luogo, una forte integrazione delle competenze, realizzata attraverso la presenza, all’interno del Servizio per l’informatica della Giustizia amministrativa, di una componente magistratuale che lavora in stretta sinergia con quella ingegneristica.</p>
<p style="text-align: justify;">Stante la presenza di tali precondizioni, la giustizia amministrativa, nel tempo, ha progressivamente sviluppato un <em>corpus</em> significativo di documenti ufficiali, iniziative formative, materiali di indirizzo, nonché convegni che testimoniano una crescente attenzione istituzionale al tema.</p>
<p style="text-align: justify;">Tra questi, è importante citare il Piano Integrato di Attività e Organizzazione (PIAO) 2025–2027<a href="#_ftn76" name="_ftnref76">[76]</a> del Segretariato Generale della Giustizia amministrativa, che inserisce l’Intelligenza Artificiale tra le leve strategiche di innovazione dell’amministrazione giudiziaria, ribadendo tuttavia con chiarezza che il suo impiego dovrà rimanere confinato a funzioni di supporto strumentale e organizzativo. Il PIAO sottolinea, in particolare, l’esigenza di una governance fondata sulla tracciabilità, sulla sicurezza, evolvendo verso un nuovo settore di ricerca denominato &#8220;Intelligenza Artificiale spiegabile&#8221;, c.d. <em>explainable AI</em><a href="#_ftn77" name="_ftnref77">[77]</a>,che mira a rendere trasparenti i complessi e spesso oscuri algoritmi di apprendimento automatico, fornendo, al contempo, preziosi spunti per delineare una architettura dei prodotti di IA più sicura in relazione agli specifici rischi di sicurezza che la caratterizzano. Questi strumenti di <em>explenable AI</em> sono un insieme di metodologie e tecniche concepite per rendere comprensibili, verificabili e giustificabili agli stakeholder (cittadini, amministrazioni, giudici) le decisioni assunte da sistemi di IA.  Tuttavia, ad oggi, come sottolinea parte della dottrina<a href="#_ftn78" name="_ftnref78">[78]</a>, tali tecnologie forniscono spiegazioni &#8211; nei sistemi molto complessi &#8211; solo parziali, locali e talvolta riduttive rispetto alla reale complessità del modello. Sono metodi che non aprono la “scatola nera”, ma costruiscono un modello semplificato che ne imita il comportamento in un contesto circoscritto. Alcuni studiosi, infatti, parlano di <em>plausible explanations</em>, ossia spiegazioni che sono plausibilmente reali, ma non permettono un controllo effettivo sulla correttezza logico-matematica del modello.</p>
<p style="text-align: justify;">Il futuro dell’utilizzo di questi sistemi di IA, pertanto, dipenderà dalla capacità di costruire strumenti di <em>explainable AI</em>, di auditabilità<a href="#_ftn79" name="_ftnref79">[79]</a> e di certificazione sempre più raffinati.</p>
<p style="text-align: justify;">
<ol style="text-align: justify;" start="10">
<li><em>Le competenze del magistrato nell’era dell’Intelligenza Artificiale</em></li>
</ol>
<p style="text-align: justify;">La riflessione sull’impiego dell’Intelligenza Artificiale nell’attività giurisdizionale non può prescindere dal tema, preliminare e strutturale, dell’alfabetizzazione tecnologica<a href="#_ftn80" name="_ftnref80">[80]</a> del magistrato. L’uso consapevole di sistemi algoritmici presuppone, infatti, una conoscenza diretta del loro funzionamento, dei loro limiti intrinseci e delle condizioni entro cui i risultati prodotti possono essere considerati affidabili. Solo attraverso tale conoscenza è possibile comprendere quando e perché un sistema sbaglia, come formulare interrogazioni (<em>prompt</em>) adeguate e fino a che punto sia legittimo confidare negli output generati, mantenendo le necessarie cautele per evitare distorsioni cognitive e decisioni eterodirette.</p>
<p style="text-align: justify;">Infatti, numerosi studi empirici hanno evidenziato come l’interazione con sistemi di Intelligenza Artificiale attivi specifici <em>bias</em> cognitivi, capaci di incidere in modo significativo sul processo decisionale umano. In particolare, la rapidità e la semplicità con cui l’IA produce soluzioni accentua la tendenza ad una “pigrizia interpretativa”<a href="#_ftn81" name="_ftnref81">[81]</a> che induce il giudice, o più in generale il decisore, ad appiattirsi sulle soluzioni in modo acritico, senza operare riflessioni sul punto. Tale fenomeno da un lato deriva dall’acritico ottimismo verso l’innovazione tecnologica, il c.d. <em>proinnovation bias</em><a href="#_ftn82" name="_ftnref82">[82]</a>, coniugato spesso a una basilare, se non nulla, conoscenza del funzionamento di queste tecnologie. Peraltro, tale affidamento incondizionato, è tanto maggiore quanto più un sistema di IA è complesso, innovativo e “potente”, in quanto il decisore percepisce come maggiore l’affidabilità della macchina. Tale convinzione non tiene conto del fatto che, l’accuratezza media di un algoritmo, per quanto statisticamente alta, non si traduce in certezza sul singolo caso concreto, che è, invece, proprio quello che interessa al giudice. Dall’altro lato, incide notevolmente la pressione sul magistrato di un costante innalzamento della produttività.  L’obiettivo dello “smaltimento dei fascicoli” — parametro centrale nelle valutazioni di professionalità e nei programmi di gestione degli uffici definiti dal Consiglio Superiore della Magistratura<a href="#_ftn83" name="_ftnref83">[83]</a>— rischia di trasformare l’IA da strumento di ausilio in una scorciatoia decisionale in grado di far raggiungere al decisore gli standard di efficienza burocratica.</p>
<p style="text-align: justify;">Volendo essere più specifici, si identificano due fenomeni cognitivi contrapposti: da un lato, quello già citato, dell’<em>automatic bias, </em>ossia della tendenza dell’utilizzatore a riporre una fiducia indiscriminata e acritica nell’output dell’algoritmo; dall’altro, in direzione opposta, troviamo quello del <em>conservatism bias, </em>ossia il rifiuto di una raccomandazione corretta della macchina e una prevalenza di una soluzione umana errata in virtù di un’assoluta sfiducia verso i sistemi intelligenti. La rilevanza concreta di tali dinamiche emerge con chiarezza da studi empirici condotti in ambito medico sull’impiego di sistemi di Intelligenza Artificiale a supporto della diagnosi. In particolare, <em>l’automation bias</em><a href="#_ftn84" name="_ftnref84">[84]</a>, inteso come accettazione di un suggerimento errato dell’algoritmo tale da indurre un errore che non si sarebbe verificato in assenza del sistema, è stato riscontrato in circa il 7% dei casi nella sua forma più rigorosa. Parallelamente, è stata osservata anche la dinamica opposta del <em>conservatism bias</em>, consistente nel rigetto di raccomandazioni corrette fornite dall’IA a favore di valutazioni iniziali umane errate, fenomeno che ha interessato circa il 10% delle interazioni<a href="#_ftn85" name="_ftnref85">[85]</a>.</p>
<p style="text-align: justify;">Questi risultati sono la prova che non basta sviluppare tecnologie sempre più sofisticate per migliorare la decisione, bensì ciò che è realmente necessario è affiancare un ripensamento della relazione uomo-macchina che consenta di evitare esperienze tanto di adesione cieca quant’anche di rifiuto irrazionale. In ragione di ciò, l’uso di questi sistemi non dovrà più essere inteso nei termini tradizionali di mero “uso” dello strumento, ma come “affidamento” (r<em>eliance</em>) calibrato e appropriato di uno strumento descrittivo e riflessivo, capace di stimolare il professionista a riconsiderare il proprio giudizio.</p>
<p style="text-align: justify;">In questa direzione, alcuni autori<a href="#_ftn86" name="_ftnref86">[86]</a> hanno sottolineato la necessità di concepire l’IA non come un “terzo sistema cognitivo”, ma come parte integrante dell’ambiente umano, che inevitabilmente condiziona le scelte; e, pertanto, non come oggetto di isolato studio rispetto al suo utilizzatore. In questo senso, l’IA non è un oracolo da seguire, ma è un “partner critico” (<em>critical mirror</em>) che aiuta a ridurre gli errori, consentendo la verifica di soluzioni alternative. A tal fine, è possibile ipotizzare alcune strategie di <em>debiasing, </em>ovverosia volte a superare questo pregiudizio cognitivo. Tra queste: la scelta di mantenere l’utilizzo dell’IA come opzione facoltativa e non vincolante, oppure, l’imposizione di plurimi output piuttosto che un’unica soluzione, o ancora, l’utilizzazione, per l’addestramento del software, non solo delle posizioni della giurisprudenza ma anche della dottrina<a href="#_ftn87" name="_ftnref87">[87]</a>. Queste strategie sarebbero funzionali ad una riflessione critica, che consenta all’IA di divenire da fattore di irrigidimento (così come evidenziato nel primo capitolo in merito ai limiti della giustizia predittiva) a strumento di stimolo per l’evoluzione interpretativa e ordinamentale.</p>
<p style="text-align: justify;">Infine, una significativa forma di tutela ulteriore è la dimensione collegiale della decisione giurisdizionale<a href="#_ftn88" name="_ftnref88">[88]</a>. La presenza di più soggetti fisici nella formazione della volontà giudiziale favorisce una discussione critica sugli esiti suggeriti dall’IA, riducendo sensibilmente il rischio di un affidamento eccessivo alla macchina e rafforzando la responsabilità umana della decisione. In tal senso, la collegialità si configura non solo come garanzia processuale tradizionale, ma anche come presidio moderno contro le distorsioni cognitive indotte dall’interazione uomo–algoritmo.</p>
<p style="text-align: justify;">Chiaramente, la formazione, come la creazione di sistemi più affidabili, richiede ingenti investimenti, che nella realtà del nostro Paese risultano ancora piuttosto limitati (salvo quanto garantito dal PNRR). La carenza di investimenti è stata evidenziata anche dal presidente emerito del Consiglio di Stato, Alessandro Pajno<a href="#_ftn89" name="_ftnref89">[89]</a>. In particolare, ricordando quanto affermato &#8211; ad un incontro a Roma sullo sviluppo tecnologico- dall’ex consigliere per lo sviluppo tecnologico del Dipartimento di Stato degli Stati Uniti d’America, Alec Ross, nel 2023, nel mondo sono stati investiti 130.000 miliardi di dollari in IA, di cui 100.000 solo da Stati Uniti e Cina. In tale circostanza, egli ha affermato che: “<em>Voi europei siete molto contenti di regolare, e questo è importante, perché la regolazione è importante, però bisogna anche sapere che cosa regolare. Se in qualche modo lo sviluppo tecnologico non va avanti, si rischia di regolare una cosa che è diversa da quella che corrisponde alla realtà attuale</em>”<a href="#_ftn90" name="_ftnref90">[90]</a>.</p>
<ol style="text-align: justify;" start="11">
<li> <em>Conclusioni</em></li>
</ol>
<p style="text-align: justify;">Oggi non si tratta più di chiedersi se e come l’IA trasformerà il nostro ordinamento, bensì di constatare che tale trasformazione è già in atto. Una gestione accorta di questa rivoluzione dipenderà dall’alfabetizzazione digitale dei soggetti chiamati a normare, giudicare e applicare tecnologie di IA. Solo stante questa premessa sarà possibile &#8211; non solo a livello giurisprudenziale, ma anche normativo – rinnovare e adattare le categorie giuridiche tradizionali, mantenendo salda la base dello Stato di diritto.</p>
<p style="text-align: justify;">Per quanto concerne l’utilizzo di sistemi di IA in ambito processuale, questi possono essere utilizzati dai giudici amministrativi solo come strumento ausiliario, nell’analisi e gestione di un’ampia mole di dati, nell’analisi e ricerca di precedenti, anche grazie allo strumento della giustizia predittiva. Di contro, rivolgersi a forme di “giustizia robotica”, in cui vi è una completa sostituzione dell’organo giudicante con una tecnologia intelligente, è, allo stato attuale, incompatibile con il principio personalista e con la tutela dei diritti fondamentali. L’IA potrà dunque stimolare la riflessione critica del giudice, ma non sostituirla, portando ad un “giudizio a umanità aumentata”.</p>
<p style="text-align: justify;">Sul piano normativo, l’AI Act costituisce un primo passo fondamentale, ma la sua portata generale &#8211; idonea a uniformare gli indirizzi degli Stati membri dell’UE &#8211; rischia di non essere sufficiente a regolare le specificità del contesto italiano, che richiede un approccio locale e particolareggiato<em>. </em>Nonostante l&#8217;adozione della legge delega del 23 settembre 2025 n.132 ,“<em>Disposizioni e deleghe al Governo in materia di Intelligenza Artificiale</em>”, rappresenti un passo importante verso la regolamentazione dell&#8217;Intelligenza Artificiale nel nostro ordinamento, la stessa, si limita a fissare principi generali e astratti privi di carattere operativo (peraltro, non perfettamente allineati con quanto previsto dall’AI Act), rimandando l&#8217;effettiva attuazione a una serie di decreti legislativi che il Governo è chiamato ad emanare. Parallelamente, le iniziative del Consiglio Superiore della Magistratura e del Ministero della Giustizia mostrano come la sfida non sia quella di “automatizzare la decisione”, ma di governare consapevolmente l’interazione tra giudice e tecnologia.</p>
<p style="text-align: justify;">In questo scenario di omissioni e lacune – colmato da atti di <em>soft law</em> o di legislazione secondaria &#8211; nessun operatore del diritto può permettersi di restare spettatore, ma dovrà approcciare questi sistemi di IA con consapevolezza critica. Viene richiesto un adattamento culturale profondo, che porti a superare la visione di certezza dell’output (propria degli algoritmi “tradizionali”), verso l’inevitabilità del rischio di errore, propria dei sistemi di IA che adottano logiche probabilistiche.  In quest’ottica la centralità della componente dello human-in-the-loop non è solo un presidio etico, ma una necessità funzionale per limitare le fallacie della macchina e, in caso, operare le necessarie correzioni.</p>
<p style="text-align: justify;">In definitiva: se l’Intelligenza Artificiale promette un futuro di efficienza, sarà solo il rispetto dei principi di trasparenza, non esclusività e non discriminazione, a garantirci che sia anche un futuro di giustizia; il tutto applicato da utilizzatori con un’adeguata alfabetizzazione sul tema.</p>
<p>&nbsp;</p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a>  Il presente saggio approfondisce riflessioni presentate nel corso del seminario “Processo amministrativo, controllo della discrezionalità e intelligenza artificiale in una prospettiva comparata” tenutosi presso l&#8217;Università di Brescia, Dipartimento di Giurisprudenza (DIGI), in data 23 ottobre 2025, introdotto e coordinato dalla Prof.ssa Vera Parisio.</p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a> N. Lipari (2024, 30 aprile) Il diritto del nuovo millennio tra giurisdizionalizzazione ed algoritmo, in Accademia, 2024, p. 9 ss., da <a href="https://accademiaassociazionecivilisti.it/il-diritto-del-nuovo-millennio-tra-giurisdizionalizzazione-e-algoritmi/">https://accademiaassociazionecivilisti.it/il-diritto-del-nuovo-millennio-tra-giurisdizionalizzazione-e-algoritmi/</a>; Cons. il recente intervento di Papa Leone XIV a favore di “un nuovo umanesimo nell’era digitale”, in Corriere della sera, 8 novembre 2025.</p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a> G. Sartor (2017). <em>Informatica giuridica e le tecnologie dell’informazione </em>(4ª ed.) Torino: Giappichelli.</p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> Il dato non è solo un prodotto, ma anche una materia prima, un capitale e un mezzo di potere, in continua crescita. Tale evoluzione è stata stimata nel 2025 in circa 181 zettabyte di dati a livello globale, sul punto F. Duarte (2025, 24 aprile). <em>Amount of data created daily. </em>Exploding Topics Blog, da <a href="https://explodingtopics.com/blog/data-generated-per-day">https://explodingtopics.com/blog/data-generated-per-day</a>  (ultima consultazione: 28.01.2026).</p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a> G. Gardini, M. De Donno, A. Ricci (2023, dicembre). <em>Nuove tecnologie per nuove amministrazioni</em>, Giappichelli, Torino, da <a href="https://www.giappichelli.it/nuove-tecnologie-per-nuove-amministrazioni-9791221116182">https://www.giappichelli.it/nuove-tecnologie-per-nuove-amministrazioni-9791221116182</a></p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a> Il riuso consiste nella possibilità, per le amministrazioni pubbliche, di condividere e riutilizzare applicativi e strumenti informatici già sviluppati da altri enti. Tali strumenti vengono dunque condivisi tra le PA per il tramite di portali &#8211; come <em>Developers Italia </em>&#8211; al posto di doverli sviluppare da soli o acquistarli da fornitori esterni. Cfr. M. Palma (2022, 19 dicembre). <em>Gli algoritmi dell’amministrazione pubblica e l’amministrazione pubblica degli algoritmi. </em>Rivista italiana di informatica e diritto, 4(2), 39–53, da <a href="https://doi.org/10.32091/RIID0090">https://doi.org/10.32091/RIID0090</a></p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a> Sul tema del trattamento del dato sanitario, nonché dell’impatto dell’evoluzione tecnologica sui servizi sanitari, in conformità al GDPR e all’AI Act cfr. G. Fares (2025, novembre) <em>Amministrare i dati sensibili nello spazio digitale europeo. Interessi protetti e tecniche di bilanciamento. </em>Sentieri giuridici, da <a href="https://editorialescientifica.it/prodotto/amministrare-i-dati-sensibili-nello-spazio-digitale-europeo/">https://editorialescientifica.it/prodotto/amministrare-i-dati-sensibili-nello-spazio-digitale-europeo/</a></p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a> Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio (2016). <em>Relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati</em> <em>e che abroga la direttiva 95/46/CE (General Data Protection Regulation).</em> Gazzetta Ufficiale dell’Unione Europea, da  <a href="https://op.europa.eu/en/publication-detail/-/publication/3e485e15-11bd-11e6-ba9a-01aa75ed71a1/language-it">https://op.europa.eu/en/publication-detail/-/publication/3e485e15-11bd-11e6-ba9a-01aa75ed71a1/language-it</a></p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a> L’articolo 22 GDPR prevede il diritto dell’interessato a non essere sottoposto a decisioni fondate esclusivamente su trattamenti automatizzati, salvo le ipotesi di cui al par. 2, e impone, in ogni caso, l’adozione di garanzie adeguate, tra cui l’intervento umano, la possibilità di esprimere la propria opinione e di contestare la decisione, configurando un limite all’automazione decisionale e un presidio a tutela dei diritti fondamentali nel contesto dell’utilizzo di sistemi algoritmici. Cfr. G. Comandé, &amp; G. Malgieri (2017, 20 dicembre). <em>Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation</em>. International Data Privacy Law, 7(2), 243–267, da <a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3088976">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3088976</a></p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a> Parere congiunto n. 2/2026 sulla proposta di regolamento recante semplificazione del quadro normativo digitale (Digital Omnibus) (2026, 10 febbraio), European Data Protection Board – European Data Protection Supervisor, da <a href="https://www.edpb.europa.eu/our-work-tools/our-documents/edpbedps-joint-opinion/edpb-edps-joint-opinion-22026-proposal_en">https://www.edpb.europa.eu/our-work-tools/our-documents/edpbedps-joint-opinion/edpb-edps-joint-opinion-22026-proposal_en</a></p>
<p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a> La nascita della rilevanza definitoria dell’intelligenza artificiale viene solitamente ricondotta ad una celebre conferenza tenutasi nel 1956 a Dartmouth (New Hampshire, USA), conosciuta come “<em>Dartmouth Summer Research Project on Artificial Intelligence”</em>,che riunì per un mese alcuni tra i principali esperti della materia. Lo scopo dichiarato della riunione era studiare ogni aspetto dell’apprendimento e dell’intelligenza umana che potesse essere descritto con una precisione tale da poter costruire macchine in grado di simularli. <em>cfr. </em>J. McCarthy, M. Minsky, N. Rochester, &amp; C. E. Shannon (2006). <em>A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955</em>. Op. cit. in AI Magazine, 27(4), 12-14, da <a href="https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/1904">https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/1904</a>.</p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a><strong> F. Pungitore </strong>(s.d.). <em>La teoria delle intelligenze multiple di Howard Gardner</em>. Essere &amp; Pensiero. Da <a href="https://www.esserepensiero.it/argomenti/filosofia/la-teoria-delle-intelligenze-multiple-di-howard-gardner/?utm_source=chatgpt.com">https://www.esserepensiero.it/argomenti/filosofia/la-teoria-delle-intelligenze-multiple-di-howard-gardner/</a>(ultima consultazione: 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> La prima realizzazione di un neurone artificiale risale allo studioso McCulloch nel 194327, e a partire da quel momento sono stati creati sistemi sempre più complessi, costituiti da molteplici livelli di connessioni di neuroni, ove l’output di alcuni neuroni diventa l’input di altri e così via. Sul punto, A. D. Signorelli, (2017, 15 novembre). <em>Le origini dell’Intelligenza Artificiale</em>. Il Tascabile. da <a href="https://www.iltascabile.com/scienze/origini-intelligenza-artificiale/">https://www.iltascabile.com/scienze/origini-intelligenza-artificiale/</a>  (ultima consultazione: 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> G. Carullo (2021). <em>Decisione amministrativa e intelligenza artificiale. Diritto dell’informazione e dell’informatica</em>, (3), 431–461</p>
<p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> G. Sartor (2017). <em>Informatica giuridica e le tecnologie dell’informazione</em> (4ª ed.). Torino: Giappichelli.</p>
<p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> Sul tema delle origini della computazione e della distinzione tra calcolo meccanico e intelligenza logica, si veda la rappresentazione cinematografica delle intuizioni di Alan Turing in <em>The Imitation Game</em> (M. Tyldum, 2014). È proprio dal celebre articolo di Turing del 1950, <em>Computing Machinery and Intelligence</em>, che trae origine il cosiddetto &#8220;gioco dell&#8217;imitazione&#8221; (oggi noto come Test di Turing), volto a indagare la capacità di una macchina di esibire un comportamento intelligente indistinguibile da quello umano.</p>
<p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> Altri sistemi, con altre applicazioni, come XCON (configurazione computer DEC, anni ’80) hanno raggiunto l’elaborazione oltre 10.000 regole.</p>
<p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> Commissione europea per l’efficienza della giustizia (CEPEJ). (2018, 3–4 dicembre). <em>Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi</em>. Consiglio d’Europa, pp. 24-25 in Appendice I, da https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-neisi/1680993348</p>
<p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> Essa è ben spiegata <a href="https://arxiv.org/ftp/arxiv/papers/2002/2002.06177.pdf">da Gary Marcus</a>, psicologo, scienziato cognitivo e autore americano, noto per le sue ricerche sull’intersezione tra psicologia cognitiva, neuroscienze e intelligenza artificiale, professore emerito di psicologia e scienze neurali alla New York University, cfr. M. T. Della Mura (2024, 31 gennaio). <em>Intelligenza artificiale neuro-simbolica: verso sistemi più simili al ragionamento umano</em>. Tech4Future, da <a href="https://tech4future.info/intelligenza-artificiale-neuro-simbolica/?utm_source=chatgpt.com">https://tech4future.info/intelligenza-artificiale-neuro-simbolica/</a></p>
<p style="text-align: justify;"><a href="#_ftnref20" name="_ftn20">[20]</a> Sul punto, ulteriori risposte tecniche e organizzative all’ istanza di spiegabilità è l’<em>explainable AI </em>e l’auditabilità.</p>
<p style="text-align: justify;"><a href="#_ftnref21" name="_ftn21">[21]</a> M. Barberis (2022). <em>Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo. </em>Milan Law Review, 3(2), pp. 1–18. ISSN 2724-3273<em>, da </em><a href="https://doi.org/10.54103/milanlawreview/19506"><em>https://doi.org/10.54103/milanlawreview/19506</em></a></p>
<p style="text-align: justify;"><a href="#_ftnref22" name="_ftn22">[22]</a> G. Carlotti (2023, 23 maggio). <em>La giustizia predittiva e le fragole con la panna </em>[Relazione presentata in occasione del convegno Intelligenza artificiale, diritti, giustizia e pubblica amministrazione, Roma]. GiustiziaAmministrativa.it. <a href="https://www.giustizia-amministrativa.it/-/carlotti-la-giustizia-predittiva-e-le-fragole-conla-panna">https://www.giustizia-amministrativa.it/-/carlotti-la-giustizia-predittiva-e-le-fragole-conla-panna</a></p>
<p style="text-align: justify;"><a href="#_ftnref23" name="_ftn23">[23]</a> Un utile ausilio potrebbe esse quella di utilizzare un sistema predittivo in un Alternative Disptre Resolution ADR. In questo caso, sarebbe proprio a partire dal possibile esito del giudizio da cui si potrebbe partire per una trattativa risolutiva della controversia.</p>
<p style="text-align: justify;"><a href="#_ftnref24" name="_ftn24">[24]</a> E. Battelli (2020, 1 gennaio). <em>Giustizia predittiva, decisione robotica e ruolo del giudice</em>. Giustizia Civile, (2), <em>281-319</em>, da <a href="https://iris.uniroma3.it/handle/11590/371728">https://iris.uniroma3.it/handle/11590/371728</a></p>
<p style="text-align: justify;"><a href="#_ftnref25" name="_ftn25">[25]</a> C. Benetazzo (2025, 12 marzo). <em>IA, giustizia e P.A.: la sfida etica ed antropologica</em>. Federalismi.it. da</p>
<p style="text-align: justify;"><a href="https://www.astrid-online.it/static/upload/bene/benetazzo_fed_8_25.pdf">https://www.astrid-online.it/static/upload/bene/benetazzo_fed_8_25.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref26" name="_ftn26">[26]</a> Sul ruolo correttivo dell’<em>equity </em>nei sistemi di common law cfr. L. Maniscalco (2024<em>). </em><em>Common Law, Equity and Statutory Interpretation in Early Modern English Law</em>. <em>Historia et Ius</em>, <em>26</em>, 1.</p>
<p style="text-align: justify;"><a href="#_ftnref27" name="_ftn27">[27]</a> M. Barberis (2022). <em>Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo</em>. Milan Law Review,</p>
<p style="text-align: justify;">3(2), pp. 1–18. ISSN 2724-3273, da <a href="https://doi.org/10.54103/milanlawreview/19506">https://doi.org/10.54103/milanlawreview/19506</a></p>
<p style="text-align: justify;"><a href="#_ftnref28" name="_ftn28">[28]</a> Nell’ordinamento italiano, come confermato dall’art. 12 delle disposizioni preliminari al codice civile, e dalla recente giurisprudenza del Consiglio di Stato[28], è necessario porre al centro della decisione la norma. In particolare, nonostante l’origine “pretoria” del diritto amministrativo, è stato più volte ribadita anche dalla recente giurisprudenza amministrativa, in particolare nella sentenza n. 217 del 2025, il Consiglio di Stato ha statuito che: “<em>l’art. 12 delle disposizioni preliminari al codice civile, quale “norma sulle norme”, sancisce in modo univoco il primato dell’interpretazione testuale sugli altri criteri ermeneutici, coerentemente con l’oggettiva evidenza che il quadro ordinamentale è costituito da proposizioni formali, i cui enunciati sono espressi in formulazioni linguistiche e il cui fine è rendere intellegibile la portata descrittiva e precettiva delle regole poste, tramite l’univocità della relazione tra il loro significante e il loro significato, garantendo, per tal via, la certezza del diritto. Ne discende che la chiarezza del testo della disposizione e l’assenza, sul piano dell’interpretazione letterale, di dubbi sulla derivante norma da essa estratta neutralizzano gli altri canoni interpretativi, i quali, invero, possono avere rilievo soltanto ove l’esegesi testuale offra un risultato ambiguo”</em></p>
<p style="text-align: justify;"><a href="#_ftnref29" name="_ftn29">[29]</a> L’esperienza statunitense rappresenta il principale laboratorio applicativo della giustizia predittiva, in particolare in ambito penale, ove strumenti di <em>risk assessment</em> sono stati utilizzati per stimare il rischio di recidiva nella fase del <em>sentencing</em>. Un esempio è il sistema COMPAS (<em>Correctional Offender Management Profiling for Alternative Sanctions</em>) addestrato su un insieme di fattori statici (quali sesso, età al momento dell’arresto, precedenti penali – i c.d. <em>historical factors</em>) e di fattori dinamici, derivanti da un’analisi criminologica (es. situazione lavorativa, dipendenza da sostanze stupefacenti o alcoliche, ecc.)Tali applicazioni hanno sollevato rilevanti criticità in ordine alla trasparenza algoritmica e alla possibile discriminazione sistemica. Nel caso <em>State v. Loomis</em> (Wisconsin Supreme Court, 2016), la Corte ha affermato che il risultato algoritmico non può costituire l’unico fondamento della decisione giudiziaria, sancendo il principio della non esclusività dell’algoritmo e della permanenza della responsabilità in capo al giudice umano.</p>
<p style="text-align: justify;"><a href="#_ftnref30" name="_ftn30">[30]</a> R. Ferrara (2019, 1 dicembre). <em>Il giudice amministrativo e gli algoritmi. Note estemporanee a margine di un recente dibattito giurisprudenziale. </em>Diritto Amministrativo, 4, 773–800</p>
<p style="text-align: justify;"><a href="#_ftnref31" name="_ftn31">[31]</a> H. Simonetti (2024). <em>Brevi note sul possibile uso dell’intelligenza artificiale nel processo amministrativo. P.A. </em>Persona e Amministrazione, 14(1), 917–934, da <a href="https://www.giustizia-amministrativa.it/en/-/158189-130">https://www.giustizia-amministrativa.it/en/-/158189-130</a>.</p>
<p style="text-align: justify;"><a href="#_ftnref32" name="_ftn32">[32]</a> D. Kahneman, O. Sibony, &amp; C. R. Sunstein (2021, 7 settembre). <em>Rumore. Un difetto del ragionamento</em></p>
<p style="text-align: justify;"><em>umano </em>(E. Gallitelli, Trad.). UTET.</p>
<p style="text-align: justify;"><a href="#_ftnref33" name="_ftn33">[33]</a> H. Simonetti (2024). <em>Brevi note sul possibile uso dell’intelligenza artificiale nel processo amministrativo. P.A. </em>Persona e Amministrazione, 14(1), 917–934,da <a href="https://www.giustizia-amministrativa.it/en/-/158189-130">https://www.giustizia-amministrativa.it/en/-/158189-130</a>; ove si richiamano sul punto le osservazioni di pensatori come Leibniz, Weber, Irti e Luciani.</p>
<p style="text-align: justify;"><a href="#_ftnref34" name="_ftn34">[34]</a> Così come evidenziato dal Presidente di sezione del Tribunale civile di Catania, Mariano Sciacca in <em>cfr. </em>G. Pascuzzi (2024, ottobre 18–19). <em>Conclusioni della Sessione III “Il giudice amministrativo e l’Intelligenza Artificiale” </em>[Contributo presentato al congresso]. Secondo Congresso nazionale dei giudici amministrativi italiani, Roma, Italia, da <a href="https://www.giustizia-amministrativa.it/documents/20142/68627514/PASCUZZI_Conclusioni_Sessione_+III_Intelligenza_artificiale_Secondo_congresso_giudici.pdf/1e02c6a0-a265-6464-c731-fce016d1bb51?t=1730277578860">https://www.giustizia-amministrativa.it/documents/20142/68627514/PASCUZZI_Conclusioni_Sessione_+III_Intelligenza_artificiale_Secondo_congresso_giudici.pdf/1e02c6a0-a265-6464-c731-fce016d1bb51?t=1730277578860</a>.</p>
<p style="text-align: justify;"><a href="#_ftnref35" name="_ftn35">[35]</a> C. Benetazzo (2025, 12 marzo). <em>IA, giustizia e P.A.: la sfida etica ed antropologica</em>. Federalismi.it. da <a href="https://www.astrid-online.it/static/upload/bene/benetazzo_fed_8_25.pdf">https://www.astrid-online.it/static/upload/bene/benetazzo_fed_8_25.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref36" name="_ftn36">[36]</a> TAR Lazio, Sez. III-bis, 14 novembre 2016, n. 12026; TAR Lazio, Sez. III-bis, 10 settembre 2018, n. 9230; TAR Abruzzo – Pescara, Sez. I, 23 giugno 2025, n. 240; TAR Lazio – Roma, Sez. II, 3 marzo 2025, n. 4546; TAR Lazio – Roma, Sez. III-bis, 16 agosto 2025, n. 15557.</p>
<p style="text-align: justify;"><a href="#_ftnref37" name="_ftn37">[37]</a> Cons. St., Sez. VI, 8 aprile 2019, n. 2270; Cons. St., 13 dicembre 2019, n. 8472; Cons. St., Sez. IV, 4 giugno 2025, n. 4857: Cons. St., Sez. VI, 6 giugno 2025, n. 4929.</p>
<p style="text-align: justify;"><a href="#_ftnref38" name="_ftn38">[38]</a> Consiglio di Stato. (2019, 13 dicembre). Sentenza n. 8472</p>
<p style="text-align: justify;"><a href="#_ftnref39" name="_ftn39">[39]</a> Sul principio di non esclusività algoritmica si confronti l’interessante la posizione di G. Gallone, secondo cui: «non risulta appagante costruire il principio in termini puramente negativi, quale mero divieto di svolgimento dell’attività amministrativa in forma totalmente automatizzata. La “non esclusività”, infatti, non dà contezza della portata positiva del principio e di come lo stesso condiziona la sostanza dell’azione amministrativa. È per evitare una lettura asfittica e restituire la giusta profondità al concetto che sembra, pertanto, preferibile impiegare l’espressione “riserva” di umanità». Cfr. G. Gallone (2023, febbraio). Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo (Cap. 3 “Il fondamento teorico-dogmatico della riserva di umanità”, pp. 71- 99). CEDAM, da <a href="https://ciadig.catedradebuengobierno.es/wp-content/uploads/2023/02/GALLONE-9788813382872.pdf">https://ciadig.catedradebuengobierno.es/wp-content/uploads/2023/02/GALLONE-9788813382872.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref40" name="_ftn40">[40]</a> Volendo citare alcuni tra i plurimi atti troviamo: l’High<em>-Level Expert Group on Artificial Intelligence</em> (AI HLEG) della Commissione Europea, la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari dalla Commissione Europea per l’efficienza della giustizia (CEPEJ), la Recommendation on the Ethics of Artificial Intelligence dell’UNESCO, la Recommendation on Artificial Intelligence dall’Organizzazione per la Cooperazione e lo Sviluppo Economico OECD.; Guidelines for the Use of AI Systems in Courts and Tribunals, dell’UNESCO.</p>
<p style="text-align: justify;"><a href="#_ftnref41" name="_ftn41">[41]</a> Regolamento (UE) 2024/1689, del Parlamento Europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull&#8217;intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#8217;intelligenza artificiale).</p>
<p style="text-align: justify;"><a href="#_ftnref42" name="_ftn42">[42]</a>Fatta salva un’estensione dell’elenco dei sistemi ad alto rischio nell’agosto 2027, nonché nell’agosto 2028, di una revisione generale del Regolamento AI, in conformità con quanto disposto dall’art. 113 del Regolamento 2024/1689.</p>
<p style="text-align: justify;"><a href="#_ftnref43" name="_ftn43">[43]</a>C. Burton, L. De Boel, Y. Padova &amp; N. Theodorakis (2024). 10 Things You Should Know About the EU Artificial Intelligence Act. Wilson Sonsini Goodrich &amp; Rosati. Da <a href="https://www.wsgr.com/a/web/qrkz1SnNzWw6nk7B3oAyDa/10-things-you-should-know-about-the-eu-artificial-intelligence-act_v2.pdf">https://www.wsgr.com/a/web/qrkz1SnNzWw6nk7B3oAyDa/10-things-you-should-know-about-the-eu-artificial-intelligence-act_v2.pdf</a></p>
<p style="text-align: justify;"> (ultima consultazione: 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref44" name="_ftn44">[44]</a> L’art.6 AI Act individua i sistemi considerati ad alto rischio, rinviando nel suo paragrafo 2 all’allegato III dell’AI Act per l’individuazione di ulteriori sistemi così classificati.</p>
<p style="text-align: justify;"><a href="#_ftnref45" name="_ftn45">[45]</a> punto 8 dell’allegato III dell’AI Act</p>
<p style="text-align: justify;"><a href="#_ftnref46" name="_ftn46">[46]</a> Guidelines for the Use of AI Systems in Courts and Tribunals (2025, 3 dicembre), UNESCO – United Nations Educational, Scientific and Cultural Organization, da <a href="https://unesdoc.unesco.org/ark:/48223/pf0000396582">https://unesdoc.unesco.org/ark:/48223/pf0000396582</a></p>
<p style="text-align: justify;"> (ultima consultazione: 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref47" name="_ftn47">[47]</a> Il considerando 53, in principio, riporta quanto segue: «<em>È altresì importante chiarire che possono esservi casi specifici in cui i sistemi di IA riferiti a settori predefiniti indicati nel presente regolamento non comportano un rischio significativo di pregiudicare gli interessi giuridici tutelati nell&#8217;ambito di tali settori in quanto non influenzano materialmente il processo decisionale né pregiudicano tali interessi in modo sostanziale. Ai fini del presente regolamento, un sistema di IA che non influenza materialmente l&#8217;esito del processo decisionale dovrebbe essere inteso come un sistema di IA che non ha un impatto sulla sostanza, e quindi sull&#8217;esito, del processo decisionale, sia esso umano o automatizzato…».</em></p>
<p style="text-align: justify;"><a href="#_ftnref48" name="_ftn48">[48]</a> G. Lo Sapio (2025, 3 febbraio). L’intelligenza artificiale generativa nella giustizia amministrativa: scenari, rischi e opportunità. Giustizia-Amministrativa.it, da <a href="https://www.giustiziaamministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf">https://www.giustiziaamministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref49" name="_ftn49">[49]</a> C. Galletti (2024, 26 ottobre). <em>Sistema 0, l&#8217;intelligenza artificiale sta già cambiando il cervello umano: cosa ha scoperto una ricerca italiana</em>. Corriere della Sera, da <a href="https://www.corriere.it/tecnologia/24_ottobre_26/sistema-0-l-intelligenza-artificiale-sta-gia-cambiando-ilcervello-umano-cosa-ha-scoperto-una-ricerca-italiana-dcb525d8-7b4e-42f6-8ed2-6d9f4f1a5xlk.shtml">https://www.corriere.it/tecnologia/24_ottobre_26/sistema-0-l-intelligenza-artificiale-sta-gia-cambiando-ilcervello-umano-cosa-ha-scoperto-una-ricerca-italiana-dcb525d8-7b4e-42f6-8ed2- In materia, appare particolarmente significativa la lettura proposta da un gruppo di ricerca multidisciplinare dell’Università Cattolica del Sacro Cuore, che interpreta questa relazione come un cambio di paradigma, una rivoluzione mentale, che modifica il modo in cui l’utente stesso pensa e ragiona.6d9f4f1a5xlk.shtml</a> . La ricerca è stata anticipata da alcune riflessioni di uno dei coordinatori del team. <em>Cfr. </em>M. Chiriatti (2021, ottobre). Incoscienza artificiale. Come fanno le macchine a prevedere per noi. Luiss University Press, da <a href="https://luissuniversitypress.it/pubblicazioni/incoscienza-artificiale-libro-chiriatti-luiss-university-press/">https://luissuniversitypress.it/pubblicazioni/incoscienza-artificiale-libro-chiriatti-luiss-university-press/</a></p>
<p style="text-align: justify;"><a href="#_ftnref50" name="_ftn50">[50]</a> Il concetto di estensione cognitiva (<em>extended cognition</em>) è stato sviluppato dai filosofi Andy Clark e David Chalmers, nel saggio <em>The Extended Mind </em>(1998). Secondo questa teoria, la mente non è confinata al cervello o al corpo, ma può estendersi in strumenti, ambienti e dispositivi esterni che svolgono funzioni cognitive. Un classico esempio è l’uso di un taccuino come memoria esterna: se l’informazione è costantemente accessibile e utilizzata per agire nel mondo, essa diventa parte integrante del processo cognitivo stesso. Un esempio moderno è proprio l’IA. <em>Cfr</em>. A. Clark, &amp; D. Chalmers (1998, gennaio). <em>The extended mind. </em>Analysis, 58(1), 7–19, da <a href="https://doi.org/10.1093/analys/58.1.7">https://doi.org/10.1093/analys/58.1.7</a></p>
<p style="text-align: justify;"><a href="#_ftnref51" name="_ftn51">[51]</a> Draft Guidelines on the use of generative artificial intelligence for courts (2025, 5 dicembre), Commissione europea per l’efficienza della giustizia (CEPEJ) – Consiglio d’Europa, da <a href="https://www.coe.int/cepej-ai-guidelines-draft">https://www.coe.int/cepej-ai-guidelines-draft</a></p>
<p style="text-align: justify;"><a href="#_ftnref52" name="_ftn52">[52]</a> Per un approfondimento efficace <em>cfr. </em>E. Carloni (2019). <em>Algoritmi su carta. Politiche di digitalizzazione e trasformazione digitale delle amministrazioni. </em>Diritto pubblico, 25(2), 431–468. ISSN 1721-8985, da</p>
<p style="text-align: justify;"><a href="https://www.rivisteweb.it/doi/10.1438/94607">https://www.rivisteweb.it/doi/10.1438/94607</a></p>
<p style="text-align: justify;"><a href="#_ftnref53" name="_ftn53">[53]</a> Così efficacemente cfr. F. Caio (2014). <em>Lo Stato del digitale: Come l’Italia può recuperare il tempo perduto </em>(p. 7). Padova: Mursia.</p>
<p style="text-align: justify;"><a href="#_ftnref54" name="_ftn54">[54]</a> Pubblicato sulla gazzetta Ufficiale della Repubblica Italiana il 25/09/2025 ed entrato in vigore il 10/10/2025, da <a href="https://www.gazzettaufficiale.it/eli/id/2025/09/25/25G00143/sg#:~:text=LEGGE%2023%20settembre%202025%2C%20n,132">https://www.gazzettaufficiale.it/eli/id/2025/09/25/25G00143/sg#:~:text=LEGGE%2023%20settembre%202025%2C%20n,132</a></p>
<p style="text-align: justify;"><a href="#_ftnref55" name="_ftn55">[55]</a> La Commissione europea nel parere circostanziato (C(2024) 7814) richiedeva: (i) un maggior allineamento all’AI Act (ad esempio con riguardo alle definizioni); (ii) un sostanziale divieto di creare nuove e ulteriori restrizioni all’applicazione dei sistemi di IA; (iii) di rispettare il principio di indipendenza delle Autorità di controllo del settore</p>
<p style="text-align: justify;"><a href="#_ftnref56" name="_ftn56">[56]</a> Previsto al comma 1 dell’art. 20 L. 132/2025 come Autorità nazionali per l’intelligenza artificiale: «<em>Al fine di garantire l’applicazione e l’attuazione della normativa nazionale e del l’Unione europea in materia di intelligenza artificiale, l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) sono designate quali Autorità nazionali per l’intelligenza artificiale, ferma restando l’attribuzione alla Banca d’I talia, alla CONSOB e all’IVASS del ruolo di autorità di vigilanza del mercato ai sensi e secondo quanto previsto dall’articolo 74, paragrafo 6, del regolamento (UE) 2024/ 1689…</em>».</p>
<p style="text-align: justify;"><a href="#_ftnref57" name="_ftn57">[57]</a> Nel contesto italiano non mancano esperienze di sperimentazione dell’intelligenza artificiale in ambito giudiziario, seppur limitate e rigorosamente circoscritte a funzioni di supporto. Tra i progetti pilota troviamo quello avviati ai Tribunali di Genova e Pisa, nonché la Corte d’Appello di Brescia (in collaborazione con l’Università di Brescia hanno sviluppato un sistema che aiuta a prevedere tempi e esiti delle cause), con applicazioni orientate all’analisi dei dati processuali, alla gestione degli archivi e al supporto organizzativo.</p>
<p style="text-align: justify;"><a href="#_ftnref58" name="_ftn58">[58]</a> In particolare, centrale è l’entrata in vigore degli obblighi sanciti per i sistemi “ad alto rischio”, il 2 agosto 2026.</p>
<p style="text-align: justify;"><a href="#_ftnref59" name="_ftn59">[59]</a> Consiglio Superiore della Magistratura (2025, 8 ottobre). <em>Raccomandazioni sull’uso dell’intelligenza artificiale per l’amministrazione della giustizia</em>. Delibera plenaria del CSM, adottata per garantire un impiego responsabile e trasparente dei sistemi di IA, nel rispetto dei principi di legalità, autonomia decisionale, imparzialità e diritti fondamentali, e per delineare i criteri di utilizzo sperimentale e controllato dell’IA nella fase transitoria antecedente alla piena applicazione del Regolamento UE sull’intelligenza artificiale, da <a href="https://www.csm.it/portale/web/csm-internet/intelligenza-artificiale?utm_source=chatgpt.com">https://www.csm.it/portale/web/csm-internet/intelligenza-artificiale</a> (ultima consultazione 28/01/2026)</p>
<p style="text-align: justify;"><a href="#_ftnref60" name="_ftn60">[60]</a> <em>Ut supra.</em></p>
<p style="text-align: justify;"><a href="#_ftnref61" name="_ftn61">[61]</a> In occasione del convegno sull’Intelligenza Artificiale organizzato dalle Camere Penali Minorili il 13 febbraio 2026 è stata proposta una “scala di utilizzazioni” dei sistemi di IA nell’attività giurisidizionale, graduata in ragione dell’incidenza sul processo decisionale. In particolare, sono state ritenute ipotesi nelle quali l’ausilio del sistema potrebbe assumere una funzione quasi sostitutiva quelle caratterizzate da elevata standardizzazione, quali la liquidazione del patrocinio a spese dello Stato o il controllo formale delle relazioni degli amministratori di sostegno. Sono state invece considerate utilizzazioni eccessivamente rischiose la redazione della bozza di provvedimento e la sintesi del fascicolo, in ragione del potenziale impatto sull’esito della decisione. Cfr. Figli dell’algoritmo e nuove responsabilità. L’avvocato nell’epoca dell’intelligenza artificiale, Convegno, Brescia, 13 febbraio 2026, da <a href="https://www.camereminorili.it/evento/lavvocato-nellepoca-dellintelligenza-artificiale/">https://www.camereminorili.it/evento/lavvocato-nellepoca-dellintelligenza-artificiale/</a></p>
<p style="text-align: justify;"><a href="#_ftnref62" name="_ftn62">[62]</a> <em>Ut supra.</em></p>
<p style="text-align: justify;"><a href="#_ftnref63" name="_ftn63">[63]</a> <em>Ut supra.</em></p>
<p style="text-align: justify;"><a href="#_ftnref64" name="_ftn64">[64]</a> Progetto della Corte d’Appello di Milano, sviluppato nell’ambito del Progetto <em>DataLake Giustizia</em> dal Consorzio Interuniversitario CINI, con la collaborazione del Politecnico di Milano. L’iniziativa si colloca al di fuori delle logiche della c.d. giustizia predittiva, configurandosi piuttosto come uno strumento di supporto al lavoro del giudice, in particolare nella fase preparatoria dei procedimenti civili di appello. L’obiettivo è quello di assistere il giudice relatore nella ricerca, organizzazione e analisi della documentazione rilevante al fine di agevolare la redazione della relazione da discutere in camera di consiglio e, successivamente, della decisione. L’esperienza milanese si presenta, dunque, come un esempio di utilizzo “prudente” e funzionale dell’IA, orientato all’efficienza organizzativa e alla coerenza giurisprudenziale, nel rispetto delle garanzie proprie dell’attività giurisdizionale</p>
<p style="text-align: justify;"><a href="#_ftnref65" name="_ftn65">[65]</a> Giustizia penale, scienza e intelligenza artificiale: la Carta dei Valori dell’Unione delle Camere Penali Italiane (2025, 17 gennaio), Unione delle Camere Penali Italiane, da <a href="https://www.camerepenali.it/public/file/Oss_Scienza_Processo_IA/UCPI_Carta-dei-valori_IA.pdf">https://www.camerepenali.it/public/file/Oss_Scienza_Processo_IA/UCPI_Carta-dei-valori_IA.pdf</a> (ultima consultazione: 28.01.2026). La Carta dei Valoro espone una serie di principi volti a garantire che l’impiego di strumenti automatizzati non comprometta la trasparenza, la verificabilità e l’equità del processo decisionale, divenendo una bussola di riferimento etico e metodologico per gli operatori del diritto.</p>
<p style="text-align: justify;"><a href="#_ftnref66" name="_ftn66">[66]</a> L’Ordine degli Avvocati di Milano oltre a realizzare un primo tentativo in Italia di un quadro deontologico di riferimento per l’impiego dell’IA nella professione forense (da aggiornare periodicamente anche grazie all’attività del Tavolo permanente), ha istituito un Osservatorio permanente volto alla mappatura e al monitoraggio delle soluzioni tecnologiche applicate al sistema giustizia. Inoltre, potranno dare il proprio contributo all’iniziativa, compilando un apposita “Scheda di Adesione”, gli avvocati che vorranno fornire informazioni sulla propria azienda, sulle soluzioni offerte e sulle eventuali collaborazioni attive con il mondo legale. Cfr. Carta dei Principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense, progetto HOROS (2024, dicembre) Ordine degli Avvocati di Milano, da <a href="https://www.ordineavvocatimilano.it/it/mappatura-delle-soluzioni-di-intelligenza-artificiale-horos-e-losservatorio-ai-dellordine-degli-avvocati-di-milano/p719">https://www.ordineavvocatimilano.it/it/mappatura-delle-soluzioni-di-intelligenza-artificiale-horos-e-losservatorio-ai-dellordine-degli-avvocati-di-milano/p719</a> (ultima consultazione: 25.03.2026).</p>
<p style="text-align: justify;"><a href="#_ftnref67" name="_ftn67">[67]</a> Documento programmatico con cui il Ministro della Giustizia definisce le priorità politiche e strategiche dell’Amministrazione giudiziaria per l’anno 2026, pubblicato a firma del Ministro della giustizia Carlo Nordio il 29 dicembre 2025</p>
<p style="text-align: justify;"><a href="#_ftnref68" name="_ftn68">[68]</a> Copilot è una famiglia di strumenti di intelligenza artificiale generativa sviluppata da Microsoft e integrata nei propri ambienti software, basata su <em>large language models.</em></p>
<p style="text-align: justify;"><a href="#_ftnref69" name="_ftn69">[69]</a> C. Morelli (2025, 20 ottobre). <em>Ufficio del Processo: 1000 licenze Copilot a supporto</em>. Altalex Wolters Kluwer Italia, da <a href="https://www.altalex.com/documents/news/2025/10/20/ufficio-processo-mille-licenze-copilot-supporto">https://www.altalex.com/documents/news/2025/10/20/ufficio-processo-mille-licenze-copilot-supporto</a> (ultima consultazione: 28.01.2026).</p>
<p style="text-align: justify;"><a href="#_ftnref70" name="_ftn70">[70]</a> Sul punto, è stato organizzato per i magistrati dal Ministero della Giustizia, Dipartimento per l’innovazione tecnologica della giustizia, il 26 gennaio 2026 un webinar per la presentazione del progetto al fine di illustrare esempi concreti di utilizzo e prompt affidabili.</p>
<p style="text-align: justify;"><a href="#_ftnref71" name="_ftn71">[71]</a> <em>Ut supra</em></p>
<p style="text-align: justify;"><a href="#_ftnref72" name="_ftn72">[72]</a> Segretariato Generale della Giustizia Amministrativa. (2024, 4 ottobre). <em>Intelligenza artificiale e Giustizia amministrativa: strategie di impiego, metodologie e sicurezza. </em>Consiglio di Stato, da <a href="https://www.giustizia-amministrativa.it/documents/20142/54520508/IA%2Bper%2BGA%2BReport%2BSito%2BGA%2B2024.pdf/dbd4b9ab-10cd-f2d9-0e97-637827f58cab?t=1728042100868">https://www.giustizia-amministrativa.it/documents/20142/54520508/IA%2Bper%2BGA%2BReport%2BSito%2BGA%2B2024.pdf/dbd4b9ab-10cd-f2d9-0e97-637827f58cab?t=1728042100868</a></p>
<p style="text-align: justify;"><a href="#_ftnref73" name="_ftn73">[73]</a> G. Pascuzzi (2024, ottobre 18–19). <em>Conclusioni della Sessione III “Il giudice amministrativo e l’Intelligenza Artificiale” </em>[Contributo presentato al congresso]. Secondo Congresso nazionale dei giudici amministrativi italiani, Roma, Italia, da <a href="https://www.giustizia-amministrativa.it/documents/20142/68627514/PASCUZZI_Conclusioni_Sessione_+III_Intelligenza_artificiale_Secondo_congresso_giudici.pdf/1e02c6a0-a265-6464-c731-fce016d1bb51?t=1730277578860">https://www.giustizia-amministrativa.it/documents/20142/68627514/PASCUZZI_Conclusioni_Sessione_+III_Intelligenza_artificiale_Secondo_congresso_giudici.pdf/1e02c6a0-a265-6464-c731-fce016d1bb51?t=1730277578860</a></p>
<p style="text-align: justify;"><a href="#_ftnref74" name="_ftn74">[74]</a> In particolare, già a partire dal 2020, infatti, la Giustizia amministrativa ha adottato sistemi avanzati di cybersecurity basati sull’intelligenza artificiale, al fine di preservare il proprio patrimonio informativo da incidenti informatici. Questo dato è tutt’altro che marginale, poiché dimostra come l’IA sia stata già impiegata nel settore amministrativo in ambiti chiaramente estranei alla funzione decisoria in senso stretto, rafforzando la sicurezza e l’affidabilità dell’infrastruttura giudiziaria. Altra centrale sperimentazione attiva è la piattaforma di intelligenza artificiale ebusiness intelligence della Giustizia amministrativa.</p>
<p style="text-align: justify;"><a href="#_ftnref75" name="_ftn75">[75]</a> Il Sistema Informativo della Giustizia Amministrativa (SIGA), istituito nel 2001 in conformità con il progressivo processo di digitalizzazione, costituisce ad oggi la piattaforma tecnologica che gestisce, più in generale, l’intera infrastruttura digitale della giustizia amministrativa italiana, e nello specifico del PAT. La piattaforma, nel 2023, è stata oggetto di un significativo processo di aggiornamento e migrazione verso soluzioni di archiviazione in <em>cloud computing</em>, che sono particolarmente efficienti ed efficaci anche in termini di spesa.</p>
<p style="text-align: justify;"><a href="#_ftnref76" name="_ftn76">[76]</a> Piano Integrato di Attività e Organizzazione (PIAO) 2025–2027 (2025), Segretariato Generale della Giustizia Amministrativa, da <a href="https://www.giustizia-amministrativa.it/en/-/152174-443">https://www.giustizia-amministrativa.it/en/-/152174-443</a></p>
<p style="text-align: justify;"><a href="#_ftnref77" name="_ftn77">[77]</a> A. D. Selbst., &amp; S. Barocas (2018). <em>The intuitive appeal of explainable machines. </em>Fordham Law Review, 87(3), 1085–1139, da <a href="https://ir.lawnet.fordham.edu/flr/vol87/iss3/11">https://ir.lawnet.fordham.edu/flr/vol87/iss3/11</a></p>
<p style="text-align: justify;"><a href="#_ftnref78" name="_ftn78">[78]</a> E. Günther, B. Szabados, R. Bhattacharjee, S. Bordt, &amp; U. von Luxburg (2025, 18 agosto). Informative post-hoc explanations only exist for simple functions (arXiv:2508.11441). arXiv. Da <a href="https://arxiv.org/pdf/2508.11441">https://arxiv.org/pdf/2508.11441</a></p>
<p style="text-align: justify;"><a href="#_ftnref79" name="_ftn79">[79]</a> Al fine di soddisfare il requisito della spiegabilità del sistema, viene favorita la progettazione di modelli di Auditable AI, ossia di algoritmi concepiti a monte per essere sottoposti a test e verifiche esterne senza pregiudicare il segreto industriale. Sul tema, un’interessante iniziativa spagnola è l’“Algorithmic Transparency Certificate”, un centro di certificazione privato, che attesta la conformità dei sistemi ai principi di trasparenza, sicurezza e responsabilità algoritmica, al fine ultimo di rafforzare la fiducia pubblica creando un ambiente di accountability. Cfr. Adigital. (s.d.). <em>Certificato di Trasparenza Algoritmica</em>, da <a href="https://www.transparenciaalgoritmica.es/">https://www.transparenciaalgoritmica.es/</a></p>
<p style="text-align: justify;"><a href="#_ftnref80" name="_ftn80">[80]</a> Sul tema delle competenze tecniche, manageriali, giuridiche ed etiche necessarie per l’adozione dell’IA nel settore giudiziario, v. G. Vecchi, <em>Intelligenza artificiale e miglioramento di alcune attività del giudice</em>, cit., parr. 4 e 4.1–4.3</p>
<p style="text-align: justify;"><a href="#_ftnref81" name="_ftn81">[81]</a> A. Simoncini (2019). <em>L’algoritmo incostituzionale; intelligenza artificiale e il futuro delle libertà. </em>BioLaw Journal – Rivista di BioDiritto, 1, 81, da https://doi.org/10.15168/2284-4503-352. Ciò in quanto «<em>una volta introdotto un sistema automatico di decisione all’interno di un processo decisionale umano, il sistema automatico tende, nel tempo, a catturare la decisione stessa” e questo “non per ragioni di valore scientifico, di accuratezza predittiva o di affidabilità tecnica dell’automatismo, ma eminentemente per ragioni di convenienza pratica»</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref82" name="_ftn82">[82]</a> G. Lo Sapio (2025, 3 febbraio). <em>L’intelligenza artificiale generativa nella giustizia amministrativa: scenari, rischi e opportunità. </em>Giustizia-Amministrativa.it, da <a href="https://www.giustiziaamministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf">https://www.giustiziaamministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf</a> <em>   </em></p>
<p style="text-align: justify;"><a href="#_ftnref83" name="_ftn83">[83]</a>  Sulla definizione dei parametri di produttività, si veda la Delibera del Plenum del CSM del 25 ottobre 2023 relativa alla <em>Determinazione dei Carichi Esigibili Nazionali</em> per il settore civile, volta a uniformare i rendimenti degli uffici giudiziari in linea con gli obiettivi di abbattimento dell&#8217;arretrato previsti dal PNRR. <em>Cfr</em>. S. Occhipinti (2023, 13 novembre). Carichi esigibili nel settore civile: il CSM fissa gli obiettivi per il 2024. Altalex Wolters Kluwer Italia, da <a href="https://www.altalex.com/documents/news/2023/11/14/carichi-esigibili-civile-csm-fissa-obiettivi-2024">https://www.altalex.com/documents/news/2023/11/14/carichi-esigibili-civile-csm-fissa-obiettivi-2024</a> (ultima consultazione 14/02/2026)</p>
<p style="text-align: justify;"><a href="#_ftnref84" name="_ftn84">[84]</a> A. Grignola (2024, aprile). <em>Les biais algorithmiques dans les LLM. </em>DataBird, da <a href="https://www.databird.co/blog/biais-algorithimiques-ia">https://www.databird.co/blog/biais-algorithimiques-ia</a></p>
<p style="text-align: justify;"><a href="#_ftnref85" name="_ftn85">[85]</a> F. Cabitza, &amp; F. Parisi (2024, 13 dicembre). <em>Siamo condizionati dall’intelligenza artificiale? Il lato oscuro</em></p>
<p style="text-align: justify;"><em>del ‘Sistema 0</em>’. Il Sole 24 Ore, da <a href="https://www.ilsole24ore.com/art/siamo-condizionati-dall-intelligenzaartificiale-lato-oscuro-sistema-0-AGUumKjB">https://www.ilsole24ore.com/art/siamo-condizionati-dall-intelligenzaartificiale-lato-oscuro-sistema-0-AGUumKjB</a> (ultima consultazione 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref86" name="_ftn86">[86]</a> <em>Ut supra</em>. Nell’articolo gli autori evidenziano la difficoltà di misurare sperimentalmente l’influenza dell’output dei sistemi di intelligenza artificiale sui processi decisionali umani, mettendo in guardia sul fatto che l’IA può agire come “Sistema 0”, cioè come struttura strutturante e condizionante del pensiero, capace di influenzare credenze e giudizi senza che vi sia intenzionalità manipolativa.</p>
<p style="text-align: justify;"><a href="#_ftnref87" name="_ftn87">[87]</a> In questa prospettiva, si apre il tema delle fonti da utilizzare per la costruzione dei dataset. Per quanto riguarda la giurisprudenza, una soluzione praticabile è rappresentata dall’impiego delle banche dati ufficiali delle sentenze della giustizia amministrativa; per parte di dottrina, invece, si potrebbe selezionare un corpus di riviste riconosciute per il loro valore scientifico.</p>
<p style="text-align: justify;"><a href="#_ftnref88" name="_ftn88">[88]</a>  Sull’idea di un sistema almeno a doppia verifica, cfr. G. Lo Sapio (2025, 3 febbraio). <em>L’intelligenza artificiale generativa nella giustizia amministrativa: scenari, rischi e opportunità. </em>GiustiziaAmministrativa.it, 12–13, da <a href="https://www.giustizia-amministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf">https://www.giustizia-amministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref89" name="_ftn89">[89]</a> A. Pajno (2024, 8 febbraio). Discorso pronunciato presso il convegno <em>Intelligenza Artificiale nella Pubblica Amministrazione: opportunità e rischi</em>, Palazzo Pirelli, Milano, da <a href="https://www.italiastatodidiritto.it/images/_ai/A5%20INTELLIGENZA%20ARTIFICIALE%20NELLA%20PUBBLICA%20AMMINISTRAZIONE-%20OPPORTUNITA%20E%20RISCHI%20online.pdf">https://www.italiastatodidiritto.it/images/_ai/A5%20INTELLIGENZA%20ARTIFICIALE%20NELLA%20PUBBLICA%20AMMINISTRAZIONE-%20OPPORTUNITA%20E%20RISCHI%20online.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref90" name="_ftn90">[90]</a> <em>Ut supra.</em></p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/">Intelligenza artificiale e giustizia amministrativa</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
