<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Intelligenza artificiale Archivi - Giustamm</title>
	<atom:link href="https://www.giustamm.it/argomento/intelligenza-artificiale/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.giustamm.it/argomento/intelligenza-artificiale/</link>
	<description></description>
	<lastBuildDate>Fri, 17 Apr 2026 22:44:32 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.giustamm.it/wp-content/uploads/2021/04/cropped-giustamm-32x32.png</url>
	<title>Intelligenza artificiale Archivi - Giustamm</title>
	<link>https://www.giustamm.it/argomento/intelligenza-artificiale/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Intelligenza artificiale e giustizia amministrativa</title>
		<link>https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 17 Apr 2026 22:44:32 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=90517</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/">Intelligenza artificiale e giustizia amministrativa</a></p>
<p>Dott.ssa Alessia Ragnoli Intelligenza artificiale e giustizia amministrativa[1] Abstract (it): Il contributo esamina l’impatto dell’intelligenza artificiale sulla giustizia, in particolare amministrativa, inquadrando il fenomeno nel contesto della trasformazione digitale e della crescente centralità del dato. L’analisi si sofferma sulle applicazioni dell’IA nei processi decisionali, interrogandosi sul grado di compatibilità tra</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/">Intelligenza artificiale e giustizia amministrativa</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/">Intelligenza artificiale e giustizia amministrativa</a></p>
<p style="text-align: justify;"><strong>Dott.ssa Alessia Ragnoli</strong></p>
<p style="text-align: justify;">Intelligenza artificiale e giustizia amministrativa<a href="#_ftn1" name="_ftnref1">[1]</a></p>
<p style="text-align: justify;">Abstract (it): Il contributo esamina l’impatto dell’intelligenza artificiale sulla giustizia, in particolare amministrativa, inquadrando il fenomeno nel contesto della trasformazione digitale e della crescente centralità del dato. L’analisi si sofferma sulle applicazioni dell’IA nei processi decisionali, interrogandosi sul grado di compatibilità tra automazione e funzione giurisdizionale. Vengono quindi approfonditi i principi di legalità algoritmica introdotti dalla giurisprudenza e il quadro regolatorio multilivello, con particolare riguardo all’AI Act e alla L.132/2025. Il lavoro evidenzia, infine, come l’impiego dell’IA, pur offrendo rilevanti opportunità in termini di efficienza, debba rimanere subordinato al controllo umano, a garanzia dei diritti fondamentali e dello Stato di diritto.</p>
<p style="text-align: justify;">Abstract (en):<em> The article examines the impact of artificial intelligence on the justice system, particularly the administrative justice system, placing the phenomenon within the context of digital transformation and the growing centrality of data. The analysis focuses on the applications of AI in decision-making processes, exploring the extent to which automation is compatible with the judicial function. It then explores the principles of algorithmic legality established by case law and the multi-level regulatory framework, with particular regard to the AI Act and L.132/2025. Finally, the paper highlights how the use of AI, while offering significant opportunities in terms of efficiency, must remain subject to human oversight, in order to safeguard fundamental rights and the rule of law.</em></p>
<p style="text-align: justify;">Sommario: 1. Introduzione: il cammino dell’innovazione verso la “società della rete” – 1.1. La centralità del dato nella Pubblica Amministrazione tra riuso, intelligenza artificiale e tutela dei dati personali &#8211; 2. I sistemi di Intelligenza Artificiale: quadro generale – 2.1. I sistemi di Intelligenza Artificiale nel settore della giustizia – 2.2. Alla ricerca di una nuova sintesi con <em>l’IA neuro-symbolic</em> – 3. Come funziona la giustizia predittiva: analisi dei sintomi e delle logiche algoritmiche – 4. L’integrazione dell’IA nel settore della giustizia – 4.1. Dal provvedimento umano al provvedimento algoritmico: il giudice-robot – 5. L’algoritmo non può indossare la toga: l’uso esclusivamente strumentale dell’IA – 5.1. L’elaborazione pretoria dei c.d. principi di legalità algoritmica – 6. La regolazione multilivello dell’Intelligenza Artificiale tra uniformazione europea e autonomia statale – 6.1. Il Regolamento (UE) 2024/1689, c.d. AI Act – 6.1.1. La giustizia nell’era dell’AI Act – 6.2. La disciplina interna dell’Intelligenza Artificiale: una regolazione in attesa di attuazione – 6.2.1. Prospettive applicative della L. 132/2025 – 7. Il Consiglio Superiore della Magistratura e l’IA: indirizzi, limiti e prospettive concrete &#8211; 8. Il Ministero della giustizia e suoi atti di indirizzo e sperimentazione – 9. Il ruolo pionieristico della giurisdizione amministrativa – 10. Le competenze del magistrato nell’era dell’Intelligenza Artificiale – 11. Conclusioni</p>
<ol style="text-align: justify;">
<li><em>Introduzione: il cammino dell’innovazione verso la “società della rete”</em></li>
</ol>
<p style="text-align: justify;">Viviamo in un’epoca in cui l’Intelligenza Artificiale (IA) non rappresenta più soltanto un affascinante e astratto scenario futuristico, ma costituisce una realtà ormai consolidata e in continua evoluzione, in grado di trasformare radicalmente i modelli economico-giuridici della nostra società<a href="#_ftn2" name="_ftnref2">[2]</a>. In ragione di ciò, si utilizza l’espressione “<em>società della rete</em>”<a href="#_ftn3" name="_ftnref3">[3]</a> per indicare un nuovo tipo di organizzazione sociale ed economica, in cui i processi produttivi, culturali e sociali sono globalmente interconnessi, a prescindere dalle distanze geografiche. Tale società si caratterizza per l’impiego di macchine che elaborano un numero elevatissimo di dati<a href="#_ftn4" name="_ftnref4">[4]</a> o, più propriamente, <em>big data</em>. Il fenomeno della datificazione determina un <em>continuum </em>in cui l’individuo produce dati, la cui gestione e interpretazione (<em>data literacy</em>) genera profitti, e i profitti confermano un ordine economico e sociale segnato dal persistente dominio delle <em>Big Tech.</em></p>
<p style="text-align: justify;">In tale quadro si inserisce il presente contributo, che si propone di analizzare l’impatto dell’intelligenza artificiale sull’esercizio della funzione giurisdizionale, con particolare riferimento al giudice amministrativo, quale garante della legalità dell’azione pubblica e della tutela delle situazioni giuridiche soggettive. L’indagine è volta, in particolare, a verificare se l’impiego di strumenti algoritmici sia suscettibile di incidere sui caratteri strutturali della funzione giurisdizionale, fino a ipotizzare forme, anche parziali, di sostituzione dell’attività decisionale umana, ovvero se tali tecnologie debbano essere ricondotte nell’alveo di strumenti di mero supporto all’attività del giudice; ciò sempre nel rispetto dei principi del giusto processo e delle garanzie fondamentali.</p>
<ul style="text-align: justify;">
<li><em>La centralità del dato nella Pubblica Amministrazione tra riuso, intelligenza artificiale e tutela dei dati personali</em></li>
</ul>
<p style="text-align: justify;">Emerge, dunque, la necessità di approfondire il ruolo del dato, quale elemento cardine delle trasformazioni in atto e presupposto imprescindibile per comprendere le implicazioni giuridiche dell’impiego dell’IA, con particolare riguardo al settore pubblico e all’attività giurisdizionale.</p>
<p style="text-align: justify;">Il dato assume un profilo di particolare rilievo nella Pubblica Amministrazione, essendo la stessa, per la natura stessa delle funzioni esercitate, uno dei principali luoghi di raccolta, produzione e organizzazione delle informazioni. In tale contesto, l’evoluzione tecnologica ha determinato il progressivo passaggio da un modello di amministrazione analogica, fondato sulla gestione documentale e sulla raccolta di informazioni funzionali a specifici procedimenti, ad un modello di amministrazione digitale e, in prospettiva, algoritmica ove oltre alla digitalizzazione dei procedimenti, vi è una totale revisione della dimensione conoscitiva dell’attività amministrativa<a href="#_ftn5" name="_ftnref5">[5]</a>.  In questo senso, il tema dell’interoperabilità del proprio patrimonio informativo, e quindi del riuso<a href="#_ftn6" name="_ftnref6">[6]</a> dei dati pubblici, diviene centrale, poiché consente di valorizzare per plurimi scopi informazioni originariamente raccolte solo per finalità amministrative specifiche. Attraverso nuove modalità di elaborazione e analisi dei dati, rese possibili dai sistemi di IA, sarà possibile individuare correlazioni, pattern e inferenze tra i dati posseduti.</p>
<p style="text-align: justify;">L’uso di sistemi di IA, tuttavia, pone rilevanti questioni giuridiche connesse alla tutela dei diritti fondamentali e, in particolare, alla protezione dei dati personali non solo nel campo pubblico delle P.A., ma soprattutto in quello privato<a href="#_ftn7" name="_ftnref7">[7]</a>. Perciò, il <em>General Data Protection Regulation</em> (GDPR)<a href="#_ftn8" name="_ftnref8">[8]</a> continua a rappresentare una disciplina generale di riferimento nel trattamento di dati personali, anche quando ciò avviene nell’ambito dei sistemi di IA. Fondamentali sono i principi generali di cui all’art. 5 GDPR – tra cui liceità, correttezza e trasparenza, limitazione della finalità e minimizzazione dei dati – oltre che la presenza di una disciplina specifica in materia di decisioni automatizzate di cui all’art. 22 GDPR, onde viene riconosciuto all’interessato il diritto di non essere sottoposto a decisioni basate unicamente su trattamenti automatizzati, salvo il ricorrere di specifiche condizioni e con adeguate garanzie<a href="#_ftn9" name="_ftnref9">[9]</a>.</p>
<p style="text-align: justify;">In questa prospettiva si collocano anche le più recenti prese di posizione delle autorità europee di protezione dei dati, tra cui il Parere congiunto n. 2/2026<a href="#_ftn10" name="_ftnref10">[10]</a> dell<em>’European Data Protection Board </em>e dell’<em>European Data Protection Supervisor </em>sulla proposta di regolamento c.d. <em>Digital Omnibus</em>, nel quale, pur riconoscendosi l’esigenza di semplificazione del quadro normativo digitale europeo, si sottolinea la necessità che tale obiettivo non si traduca in una riduzione del livello di tutela garantito dal GDPR e, più in generale, di garantire un equilibrio tra innovazione tecnologica e protezione dei diritti fondamentali nel contesto dell’intelligenza artificiale.</p>
<ol style="text-align: justify;" start="2">
<li><em>I sistemi di Intelligenza Artificiale: quadro generale</em></li>
</ol>
<p style="text-align: justify;">Dovendo necessariamente operare una selezione di quest’ampissimo ambito di indagine, la presente analisi si concentrerà sull’uso di sistemi di Intelligenza Artificiale – e, in particolare, di giustizia predittiva &#8211; da parte della magistratura giudicante, con specifico riferimento a quella amministrativa. Lo studio deriva dalla necessità, per il giurista d’oggi, di verificare l’impatto delle nuove tecnologie sui diritti fondamentali dell’individuo e sui principi dello Stato di diritto, affrontando un necessario ripensamento delle categorie giuridiche tradizionali.</p>
<p style="text-align: justify;">A tal fine, in questa sede si opererà un’analisi semplificata, limitata a quanto necessario ai predetti fini, del funzionamento e delle capacità dei sistemi intelligenti.</p>
<p style="text-align: justify;">Gli studi sui sistemi di IA, avviati intorno agli anni ‘50<a href="#_ftn11" name="_ftnref11">[11]</a>, miravano ad individuare delle tecniche per riprodurre le capacità e/o i processi cognitivi tipici dell’essere umano mediante un calcolatore. Ciò ha portato inevitabilmente a porsi una fondamentale questione preliminare: cosa sia l’intelligenza umana.</p>
<p style="text-align: justify;">Si sono rilevate, nella ricerca di una soluzione al quesito, una molteplicità di definizioni specchio di altrettante tipologie di intelligenza umana<a href="#_ftn12" name="_ftnref12">[12]</a>. Sul punto, fondamentale è la teoria di Howard Gardner delle intelligenze multiple, raffigurante l’esistenza di diverse forme di intelligenza &#8211; tra cui quella linguistica, logico-matematica, spaziale, musicale, interpersonale e intrapersonale &#8211; tutte ugualmente valide e importanti.</p>
<p style="text-align: justify;">Ed è nella mimesi di queste funzioni &#8211; ormai raggiunta solo relativamente a specifiche funzioni del cervello umano, ma ancora un’utopia per quanto riguarda l’integrale sua complessità &#8211; che trovano avvio gli studi sui sistemi di Intelligenza Artificiale.</p>
<p style="text-align: justify;">I modelli di più recente generazione si fondano sull’apprendimento automatico (<em>machine learning</em>) e, in particolare, sulle reti neurali profonde (<em>deep learning</em>). Le tecniche di <em>deep learning</em> operano una simulazione delle reti neurali, denominate appunto reti neurali artificiali<a href="#_ftn13" name="_ftnref13">[13]</a>, composte da plurimi livelli di nodi, o “neuroni” interconnessi, che ricevono un <em>input,</em> lo elaborano attraverso funzioni matematiche, e producono un <em>output</em>. A differenza dei tradizionali algoritmi basati su regole esplicite e deterministiche, questi modelli non eseguono istruzioni predefinite, bensì “imparano” dai dati utilizzati nell’addestramento e, attraverso l’individuazione statistica di correlazioni e pattern ricorrenti, elaborano previsioni e/o classificazioni.</p>
<p style="text-align: justify;">Particolarmente esemplificativo del funzionamento del <em>machine learning </em>è il paragone operato con il concetto filosofico dell’iperuranio, o mondo delle idee, di Platone: <strong>«</strong><em>Nella fase di apprendimento, l’algoritmo, processando enormi quantità di dati, forma quella che potremmo definire l’“idea”, il concetto che si vorrà andare a valutare. Tale “idea”, tecnicamente il c.d. modello, viene utilizzata in fase di esecuzione dell’algoritmo per verificare se un set di nuovi dati vi si conformino, e quindi possano essere ricondotti al medesimo concetto, ovvero se non presentino sufficienti caratteristiche e debbano quindi essere considerati estranei a tale “idea” (modello)<strong>»</strong>.</em><a href="#_ftn14" name="_ftnref14">[14]</a></p>
<p style="text-align: justify;">Infatti, partendo da un codice sorgente (scritto dal programmatore, ma oggi anche dalle macchine stesse), attraverso il programma di apprendimento automatico il sistema ricava un modello che servirà ad analizzare i nuovi dati immessi al fine di ricavarne un <em>output</em><a href="#_ftn15" name="_ftnref15">[15]</a>. Tuttavia, la capacità adattiva e di autonoma creazione del modello determina un’elevata opacità del processo decisionale, generando il fenomeno della <em>black box</em>, in virtù del quale neppure gli sviluppatori sono in grado di spiegare con certezza come l’algoritmo sia giunto a un determinato esito.</p>
<p style="text-align: justify;">Tra le evoluzioni più rilevanti di questi sistemi rientrano quelli di elaborazione del linguaggio naturale (<em>Natural Language Processing, NLP</em>) ed in particolare a quel sottoinsieme che sfrutta tecniche di apprendimento automatico, i modelli linguistici avanzati c.d. <em>Large Language Models </em>(LLM). Questi modelli linguistici sono in grado di generare <em>output</em> in linguaggio naturale, mediante l’analisi di miliardi di relazioni sintattiche e semantiche tra le parole, con risposte coerenti rispetto ai quesiti. Tuttavia, questi sistemi non “comprendono” realmente ciò che elaborano, ma operano meramente simulando il linguaggio umano sulla base di correlazioni probabilistiche<a href="#_ftn16" name="_ftnref16">[16]</a>. Ciononostante, tali sistemi &#8211; diversamente dagli algoritmi puramente statistici &#8211; sono in grado di riassumere sentenze, redigere bozze di provvedimenti, sintetizzare dottrina e giurisprudenza, tradurre testi giuridici complessi e persino suggerire argomentazioni, e proprio per questo motivo, possono avere un impatto centrale sul settore giuridico.</p>
<p style="text-align: justify;">
<ul style="text-align: justify;">
<li><em>I sistemi di Intelligenza Artificiale nel settore della giustizia</em></li>
</ul>
<p style="text-align: justify;">Affrontando <em>in primis</em> il tema dei modelli applicabili al settore giuridico, possiamo distinguere i sistemi di <em>machine learning</em>, di stampo predittivo-statistico, dai sistemi <em>rule-based</em> o simbolici, che si fondano su regole logiche esplicite del tipo “se… allora…”.</p>
<p style="text-align: justify;">Questi ultimi sono sistemi che cercano di catturare, tramite regole chiuse, il ragionamento induttivo, sistematico e assiologico proprio del giurista. Tali sistemi si sono però rivelati incapaci di modellare la complessità e la dinamicità del diritto, soprattutto per un limite quantitativo del numero di regole gestibili. Alcuni sistemi esperti sviluppati tra gli anni Settanta e Novanta &#8211; tra i noti Legal Expert Systems come HYPO, CATO, TAXMAN o PROLOG-LAW<a href="#_ftn17" name="_ftnref17">[17]</a>&#8211; computavano qualche centinaio di regole. Tuttavia, questi sistemi esperti non hanno avuto grande successo, primariamente per la loro incapacità di gestire più di 300 regole circa<a href="#_ftn18" name="_ftnref18">[18]</a> (anche se poi a fronte della riduzione degli investimenti non sono stati studiati e implementati) per la complessità di aggiornamento e per il cosiddetto <em>knowledge acquisition bottleneck</em>, ossia l’impossibilità pratica di tradurre e aggiornare in maniera completa e coerente la conoscenza giuridica all’interno di una base di regole statiche. La programmazione di queste regole richiede la presenza minima di un esperto giurista e un ingegnere informatico che traducano le norme/la giurisprudenza in regole logiche e formali; tuttavia, questo processo è molto lento e costoso. A ciò si aggiunga che, essendo necessario un continuo aggiornamento per adattare il sistema a modifiche normative e giurisprudenziali, il costo di mantenimento di questi sistemi è molto alto; senza contare che l’introduzione di più regole ed eccezioni rende più probabile la generazione di incoerenze.</p>
<ul style="text-align: justify;">
<li><em>Alla ricerca di una nuova sintesi con l’IA neuro-symbolic</em></li>
</ul>
<p style="text-align: justify;">Attualmente, la ricerca di un paradigma teoricamente compatibile con la funzione giurisdizionale si sta muovendo verso sistemi, non <em>rule-based</em> o di <em>machine learning</em> (come alcuni sistemi di giustizia predittiva), bensì di<em> IA neuro-symbolic</em> (neurosimbolica).</p>
<p style="text-align: justify;">Con <em>neuro-symbolic AI</em> si intende la sintesi di approcci che integrano componenti neurali (reti neurali e machine learning) con componenti simboliche (ontologie, logica, regole, motori di inferenza)<a href="#_ftn19" name="_ftnref19">[19]</a>. L’obiettivo di questa innovativa tecnologia è unire la capacità di apprendimento dei modelli statistici con la trasparenza, controllabilità e capacità argomentativa dei sistemi simbolici.  Su tutti, la trasparenza — intesa non solo come accessibilità ma come effettiva spiegabilità (<em>explainability</em>) delle decisioni algoritmiche — si configura come la chiave di volta per prevenire l’opacità<a href="#_ftn20" name="_ftnref20">[20]</a> delle diverse forme di potere dell’era digitale propria dei <em>machine learning</em>. Solo un sistema ibrido potrebbe, in teoria, soddisfare i requisiti di trasparenza, controllabilità e motivazione richiesti dall’esercizio della funzione giurisdizionale.</p>
<p style="text-align: justify;">Tuttavia, allo stato dell’arte, anche questa tecnologia non è ancora pienamente operativa e affidabile. Pertanto, nell’ambito giuridico, i principali sistemi sviluppati e in commercio sono di <em>machine learning, </em>che &#8211; come già anticipato &#8211; operano attraverso l’elaborazione statistica dei dati, individuando correlazioni e pattern ricorrenti al fine di formulare previsioni. In particolare, possiamo trovare sistemi come quelli di <em>legal information</em> e di <em>decision support</em> sviluppati da operatori editoriali e istituzionali, al fine di creare un modello in grado di supportare l’attività dell’operatore del diritto nell’effettuare l’analisi, la classificazione e la correlazione delle fonti. Diversa è, invece, la prospettiva e l’obiettivo dei sistemi di giustizia predittiva (<em>predictive justice) </em>che si pongono in rapporto diretto con l’attività di <em>ius dicere</em> consentendo di giungere ad una previsione automatizzata dell’esito del giudizio, grazie ad un’analisi statistica avanzata (gestita nella quasi totalità dei casi da tecnologie di Intelligenza Artificiale).</p>
<ol style="text-align: justify;" start="3">
<li><em>Come funziona la giustizia predittiva: analisi dei sintomi e delle logiche algoritmiche</em></li>
</ol>
<p style="text-align: justify;">Il concetto di giustizia predittiva, come quello di intelligenza e di Intelligenza Artificiale, manca di una definizione tecnica consolidata. Con tale espressione, infatti, si indicano diverse attività che spaziano, con varie sfumature: dal traguardo pratico minimo della piena accessibilità a tutti i dati relativi ai procedimenti giudiziari, passando per l’ambizioso obiettivo teorico della previsione automatizzata delle decisioni giudiziarie, fino a raggiungere l’estremo obiettivo pratico della sostituzione dei giudici umani con sistemi automatizzati. <a href="#_ftn21" name="_ftnref21">[21]</a></p>
<p style="text-align: justify;">In dottrina, una definizione operativamente utile, recita: “<em>come degli algoritmi di apprendimento automatico (machine learning) che utilizzano le tecniche dell’elaborazione del linguaggio naturale (natural language processing) e dell’apprendimento profondo (deep learning) per analizzare, tramite la ricerca testuale e la clusterizzazione, dei megadati (ossia grandi insiemi di dati) &#8211; rappresentati da provvedimenti normativi e da precedenti giurisprudenziali &#8211; allo scopo di costruire modelli statistici finalizzati al raggiungimento di plurimi obiettivi, utili per un giurista, tra i quali quello, per l’appunto, di prevedere anche il possibile esito di un giudizio</em>” <a href="#_ftn22" name="_ftnref22">[22]</a>. In altri termini, l’addestramento di questi sistemi consentirebbe di operare classificazioni delle decisioni, raggruppando (<em>clustering</em>) casi consimili e stimando le probabilità di accoglimento mediante l’individuazione di pattern ricorrenti; il tutto in un linguaggio naturale comprensibile all’uomo (stante l’ausilio di tecniche di LLM).</p>
<p style="text-align: justify;">Ciò dimostra come gli strumenti predittivi siano in grado di attuare un’analisi del rischio giudiziario, ma non di fornire la soluzione del caso concreto. Infatti, se sono evidenti i vantaggi in termini di razionalizzazione, celerità e deflazione<a href="#_ftn23" name="_ftnref23">[23]</a> del processo, è altrettanto vero che: “<em>le decisioni robotiche hanno la propensione a “codificare” il passato, ingabbiando soluzioni e predizioni all&#8217;interno delle griglie fornite dai trascorsi storici e dai valori che hanno guidato la programmazione dell&#8217;algoritmo alla base del processo decisionale</em>”<a href="#_ftn24" name="_ftnref24">[24]</a>. È questa la principale doglianza che può essere mossa a chi argomenta come questi sistemi siano in grado di assicurare una maggiore certezza del diritto e uguaglianza nella giustizia.</p>
<p style="text-align: justify;">Per quanto concerne la certezza del diritto &#8211; come sottolineato da parte della dottrina &#8211; questa non va intesa come preventiva acquisizione di un risultato, bensì come ragionevole aspettativa, sempre fondata sul trattamento uniforme di casi consimili, in ossequio al principio di uguaglianza. La realtà, con le sue molteplici sfaccettature, ci mostra come ogni caso si caratterizza per specificità che possono distinguerlo da un altro caso simile, incidendo sull’esito della decisione.</p>
<p style="text-align: justify;">L’attività interpretativa proposta da questi sistemi sarebbe dunque priva di censure solo se si aderisse a quella corrente, di stampo montesquiano, che intende restituire al giudizio un’impronta ricognitiva, e non creativa, del diritto. Una visione, quest’ultima, che vede il giudice come un interprete passivo, la cui attività si riduce a un mero esercizio logico orientato all’applicazione rigida della legge. Il dibattito sull’attività di <em>ius dicere</em> esercitata da sistemi di IA ha dunque riportato in primo piano le problematiche evidenziate nel mito illuminista del giudice “bocca della legge”, ma accentuate dall’incorporeità e dalla a-storicità di una macchina che opera: “<em>al di fuori della storia, cioè lo spazio abitato dagli umani e cioè dai loro corpi</em>”<a href="#_ftn25" name="_ftnref25">[25]</a>.  Nonché vengono a porsi nel nostro sistema di <em>civil law</em> le tipiche doglianze mosse ai sistemi di <em>common law</em> caratterizzati dal principio dello <em>stare decisis</em> e dal vincolo formale del precedente<a href="#_ftn26" name="_ftnref26">[26]</a>. In particolare, la natura retrospettiva, propria del sistema di <em>common law</em> – e dei sistemi predittivi &#8211; può determinare una riproduzione di <em>bias</em> contenuti nelle precedenti sentenze, oppure una più lenta evoluzione del diritto.</p>
<p style="text-align: justify;">È bene evidenziare come i modelli predittivi di stampo induttivo, come quelli di <em>common law</em> &#8211; onde la base di addestramento dell’algoritmo consiste esclusivamente in sentenze pregresse &#8211; risultano difficilmente trasferibili nei sistemi di <em>civil law</em> senza un significativo adattamento, pena una sovra-enfasi del precedente a scapito dell’interpretazione testuale e sistematica della norma. Infatti, in quest’ultimo sistema, l’attività interpretativa si sviluppa secondo un percorso prevalentemente deduttivo, che muove dal dato legislativo per giungere alla soluzione del caso concreto, pur nel dialogo con il diritto vivente<a href="#_ftn27" name="_ftnref27">[27]</a>. L’algoritmo, pertanto, non deve soltanto “apprendere” ricorrenze decisionali, ma deve essere in grado di correlare il dato fattuale alla cornice normativa di riferimento<a href="#_ftn28" name="_ftnref28">[28]</a>, operazione che implica una maggiore complessità strutturale rispetto ai modelli statistici integrati esclusivamente con basi giurisprudenziali, come quelli sviluppati nei Paesi anglo-americani ove questi sistemi sono, peraltro, oggetto di maggior diffusione e investimento<a href="#_ftn29" name="_ftnref29">[29]</a>.</p>
<p style="text-align: justify;">Ne consegue che, al di là delle differenze strutturali tra <em>common law</em> e <em>civil law</em> e delle diverse modalità di addestramento dei sistemi algoritmici, la questione centrale non è tanto la maggiore o minore efficienza predittiva degli strumenti tecnologici, quanto la loro compatibilità con la natura costituzionale della funzione giurisdizionale. L’eventuale capacità dell’algoritmo di individuare regolarità statistiche nei precedenti o nell’interpretazione delle norme non esaurisce, infatti, il contenuto del giudicare, che implica un’attività valutativa, interpretativa e assiologica non riducibile a mera correlazione tra dati. La natura umana del magistrato è un elemento essenziale dell’attività giurisdizionale, tanto nell’analisi del diritto quant’anche del fatto, come verrà meglio illustrato di seguito. È dunque necessario tener presente la complessità del giudizio contemporaneo, intrinsecamente connesso a valori di principio, nazionali, europei, e internazionali, lontani da una rigida visione della legalità.</p>
<p style="text-align: justify;">Infine, è opportuno chiarire la differenza semantica tra giustizia predittiva e giustizia automatizzata. La prima, come analizzato, adotta strumenti algoritmici e statistici per l’analisi dei dati giuridici/giurisprudenziali al fine di formulare previsioni sugli esiti di un procedimento. Tali previsioni possono limitarsi a fungere da mero ausilio o arrivare a determinare la decisione del caso concreto, sostituendosi al giudizio umano. Ed è proprio in questa seconda ipotesi — caratterizzata da un’incidenza diretta e immediata sulla decisione — che si configura la giustizia automatizzata. Pertanto, più che di una netta distinzione, si può parlare di un assorbimento della giustizia predittiva in quella automatizzata qualora la macchina raggiunga un livello di autonomia tale da eseguire compiti procedurali e statistici capaci di generare l&#8217;output finale, superando la sfera della semplice ipotesi solutiva. Torna, dunque, in rilievo come la definizione stessa di giustizia predittiva vari in base alle capacità del modello impiegato, rendendo complesso il raggiungimento di una sintesi univoca e onnicomprensiva.</p>
<ol style="text-align: justify;" start="4">
<li><em>L’integrazione dell’IA nel settore della giustizia</em></li>
</ol>
<p style="text-align: justify;">La demarcazione tra il valore previsionale e quello previsorio dell’algoritmo non ha solo profili astratti e definitori, ma ha un effetto operativamente utile nel demarcare il confine di ammissibile utilizzo del sistema nelle aule di tribunale. Muovendo da questa consapevolezza possiamo dunque approfondire la distinzione, e la legittimità, di due modelli di integrazione tecnologica profondamente diversi: l’IA a supporto del giudice, intesa come strumento di potenziamento delle capacità umane, e l’IA in sostituzione del giudice, dove l&#8217;algoritmo assume il provvedimento finale.</p>
<ul style="text-align: justify;">
<li><em>Dal provvedimento umano al provvedimento algoritmico: il giudice-robot</em></li>
</ul>
<p style="text-align: justify;">La possibilità di introdurre, nell’ordinamento giuridico italiano, un sistema di Intelligenza Artificiale in sostituzione all’essere umano nell’esercizio dell’attività decisoria pone delle questioni tanto di carattere tecnico (in parte già anticipate) quant’anche ontologico.</p>
<p style="text-align: justify;">Nel valutare la compatibilità di un giudice-robot con i principi dell’ordinamento italiano &#8211;  e, dunque, dell’ammissibilità ontologica di una delega di sovranità giudiziaria &#8211; occorre rilevare l’assenza, a livello costituzionale, di un riferimento espresso sul tema. Nonostante ciò, una parte della dottrina, individua la presenza di un principio di umanità del giudice, tutelato a livello costituzionale e sovranazionale che si oppone a un utilizzo sostitutivo dei modelli di IA.</p>
<p style="text-align: justify;">In particolare, l’umanità del giudice troverebbe fondamento nel principio personalista di cui all’art. 2 Cost., che impedisce ogni equiparazione di valore tra l’essere umano e la macchina, imponendo una giurisdizione “fatta da uomini e per gli uomini”. Analoghe garanzie emergono a livello sovranazionale dall’art. 6 CEDU e dall’art. 47 della Carta di Nizza. Ulteriore fondamento è rinvenibile nel principio del giudice naturale precostituito per legge (art. 25 Cost.), ove l’attributo “naturale” può essere interpretato come implicante la condizione di essere umano, in quanto dotato di razionalità e coscienza. Proseguendo il Titolo IV della Parte II della Costituzione, in alcuni dei suoi articoli, delinea una funzione giudicante eminentemente umana: affidata a un giudice nominato per concorso, soggetto alla legge, dotato di inamovibilità e terzietà (artt. 101, 107, 111 Cost.). Un tal riferimento lo possiamo poi trovare anche nelle norme processuali, come all’art. 116 c.p.c. che ancora la valutazione della prova al prudente apprezzamento del giudice; giudizio che (come abbiamo già anticipato in tema di giustizia predittiva) richiede una soggettività umana. Si richiama dunque quanto sottolineato in dottrina: “<em>l’algoritmo non sa distinguere tra ciò che è giusto e ciò che è solo regolare, tra ciò che è conforme e ciò che è equo; non sa risolvere i conflitti di valori, né motivare una decisione sulla base di principi generali</em>”<a href="#_ftn30" name="_ftnref30">[30]</a>.</p>
<p style="text-align: justify;">Di contro, i sostenitori di una piena sostituibilità del giudice umano ritengono non solo possibile, ma anche auspicabile, l’introduzione di sistemi di Intelligenza Artificiale nell’attività giurisdizionale, individuando quale principale vantaggio una maggiore efficienza nei tempi di definizione delle controversie. La riduzione dei “tempi della giustizia” darebbe attuazione a quel principio costituzionale espresso all’art. 111 Cost., che ha portato a varie condanne in capo all’Italia, della ragionevole durata del processo.  Un ulteriore beneficio individuato è quello della diminuzione dell’“errore umano”, del kantiano “legno storto” di cui è fatto l’uomo<a href="#_ftn31" name="_ftnref31">[31]</a>. Conseguentemente si assicurerebbe un grado massimo di certezza giuridica e di uguaglianza di fronte alla legge dai pregiudizi e dalle irregolarità fisiologicamente connesse alla natura umana. A scopo esemplificativo, si riporta una celebre ricerca condotta negli Stati Uniti, dalla quale è emerso come i giudici siano più propensi a concedere la libertà condizionale all’inizio della giornata o subito dopo una pausa, e meno inclini a farlo immediatamente prima di una pausa.<a href="#_ftn32" name="_ftnref32">[32]</a> Quanto rilevato suggerisce la presenza di <em>bias </em>cognitivi legati alla fatica decisionale umana, assente in un sistema di IA. La giustizia digitale predittiva potrebbe, in questa prospettiva, riportare il giudizio entro confini più certi, restituendo alla funzione giurisdizionale una maggior prevedibilità e calcolabilità che ha storicamente accompagnato la formazione dello Stato Moderno e del modello economico capitalistico.<a href="#_ftn33" name="_ftnref33">[33]</a></p>
<p style="text-align: justify;">Tale visione sembra dimenticare che l’attività di <em>ius dicere</em> implica una preliminare attività di ricostruzione della fattispecie reale e concreta, di accertamento e valutazione delle prove, che richiede la capacità di cogliere <em>nuance</em> culturali, emotive e contestuali che non possono essere pienamente tradotte in dati strutturati. La macchina non è in grado di valutare la credibilità di un testimone, interpretare il silenzio, l’ironia o la reticenza. Ancora, non è in grado di distinguere elementi utili, dagli inutili, ai fini decisori operando una problematica semplificazione del reale<a href="#_ftn34" name="_ftnref34">[34]</a>. Per quanto attiene il piano dell’attività interpretativa del diritto, la macchina non riesce a bilanciare principi e valori, o attribuire agli stessi un contenuto concreto. Vi è un’oggettiva impossibilità di tradurre in una formula matematica il significato, e lo spettro di applicabilità, di concetti giuridici indeterminati; a titolo esemplificativo in ambito penale la valutazione della prova – grave, precisa e concordante – è ancorata alla prudenza del giudice. Tale capacità critica, inclusa la possibilità di dubitare, sospendere il giudizio o sollevare questioni di legittimità costituzionale, è intrinsecamente umana e difficilmente riproducibile da sistemi algoritmici, anche complessi.<a href="#_ftn35" name="_ftnref35">[35]</a></p>
<p style="text-align: justify;"> A ciò si aggiunge l’impossibile traducibilità in una funzione matematica dell’interpretazione evolutiva della norma. Un’esigenza della società prima di giungere alla rilevanza del potere legislativo, dapprima viene percepita, e quindi tutelata, dal potere giurisdizionale. Infatti, i modelli di IA di giustizia predittiva, che calcolano la soluzione sui dati disponibili pregressi portano a un irrigidimento del diritto vivente, riducendo la vitalità dell’ordinamento e la sua capacità di adattarsi alle mutevoli esigenze sociali.</p>
<ol style="text-align: justify;" start="5">
<li><em>L’algoritmo non può indossare la toga: l’uso esclusivamente strumentale dell’IA</em></li>
</ol>
<p style="text-align: justify;">Un discorso differente può essere avanzato sul tema di un utilizzo dei sistemi di Intelligenza Artificiale come mero supporto del giudice nell’espletamento delle proprie funzioni. In tale prospettiva, l’IA non si configura come un soggetto decisionale, bensì come una tecnologia servente, destinata a supportare il giudice nello svolgimento di attività preparatorie, organizzative o di analisi, senza interferire con il nucleo essenziale della funzione giurisdizionale. È, dunque, possibile analizzare la giurisprudenza e la normativa sul punto.</p>
<ul style="text-align: justify;">
<li><em>L’elaborazione pretoria dei c.d. principi di legalità algoritmica</em></li>
</ul>
<p style="text-align: justify;">Un ruolo di precursore, sul più ampio tema &#8211; non esclusivo del settore giustizia &#8211; dell’uso di sistemi di IA nell’attività decisoria in generale, è stato rivestito dalla giurisprudenza amministrativa. In particolare, dapprima i T.A.R.<a href="#_ftn36" name="_ftnref36">[36]</a>, e di seguito il Consiglio di Stato<a href="#_ftn37" name="_ftnref37">[37]</a>, con le loro pronunce, hanno elaborato in via pretoria un nucleo essenziale di principi di legalità algoritmica, fungendo da parametri di riferimento per il successivo sviluppo normativo. I tre principi di legalità algoritmica individuati dal Consiglio di Stato nella sentenza n. 8472 del 13 dicembre 2019<a href="#_ftn38" name="_ftnref38">[38]</a> sono quelli di: conoscibilità, non esclusività e non discriminazione.</p>
<p style="text-align: justify;">Partendo nell’analisi dal primo, il principio di conoscibilità dell’algoritmo, è inteso come possibilità effettiva di comprendere le logiche decisionali sottese al sistema automatizzato. Ciò si lega al principio di motivazione dell’atto amministrativo, che, nel caso dell’algoritmo, diviene motivo della logica computazionale stessa. Il punto centrale è che la complessità tecnica non può tradursi in opacità giuridica dovendo essere accessibile, intelligibile e sindacabile. In secondo luogo, il principio di non esclusività della decisione algoritmica, impone la presenza di un intervento umano effettivo nel processo decisionale. Ciò in quanto l’autorità pubblica mantiene la titolarità del potere decisionale, dovendo poter intervenire, correggere e verificare il risultato algoritmico. Tale principio, secondo una lettura in chiave positiva &#8211; e non negativa, come qui operato &#8211; può essere visto come una riserva di umanità algoritmica, c.d <em>Human In The Loop </em>(HITL)<a href="#_ftn39" name="_ftnref39">[39]</a>. Infine, si rinviene il principio di non discriminazione, atto a evitare che l’automazione produca risultati distorsivi, irragionevoli o discriminatori sulla base di categorie sensibili quali razza, origine etnica, opinioni politiche, religione, convinzioni personali, appartenenza sindacale, patrimonio genetico, stato di salute e orientamento sessuale. Una situazione problematica si determina quando la macchina diviene uno schermo di automatismi iniqui inconsci, che vengono così perpetrati. Un’accorta analisi nella fase di programmazione e supervisione può aiutare però a combattere questi <em>bias </em>sistemici inconsci, che, rispetto a quelli umani, sono più facilmente individuabili.</p>
<p style="text-align: justify;">Tali principi costituiscono lo “<em>statuto giuridico della decisione informatizzata</em>”, così come definito dallo stesso Consiglio di Stato. Tali approdi, sebbene maturati in relazione all’attività amministrativa, hanno costituito il sostrato concettuale su cui si è innestata la successiva regolazione dell’uso dell’IA anche in ambito giudiziario a livello interno, rafforzando l’idea che la tecnologia possa essere ammessa solo a condizione di rimanere subordinata al controllo umano e alla responsabilità del decisore.</p>
<p style="text-align: justify;">Questa visione si pone perfettamente in linea con gli strumenti di <em>soft law</em><a href="#_ftn40" name="_ftnref40">[</a><a href="#_ftn40" name="_ftnref40"><span style="text-decoration: underline;">40]</span></a> che hanno avuto un ruolo determinante nel creare un ecosistema valoriale di riferimento per l’impiego dell’Intelligenza Artificiale, con una forte impronta <em>human-centric</em>.</p>
<ol style="text-align: justify;" start="6">
<li><em>La regolazione multilivello dell’Intelligenza Artificiale tra uniformazione europea e autonomia statale </em></li>
</ol>
<p style="text-align: justify;"><em> </em></p>
<ul style="text-align: justify;">
<li><em>Il Regolamento (UE) 2024/1689, c.d. AI Act</em></li>
</ul>
<p style="text-align: justify;">Il percorso avviato dalla giurisprudenza e dalla <em>soft law</em> ha trovato una sistematizzazione normativa organica e vincolante nell’Unione europea con il Regolamento (UE) 2024/1689, noto come <em>AI Act</em><a href="#_ftn41" name="_ftnref41">[41]</a>, in attuazione di un approccio orientato alla ricerca di un equilibrio tra promozione dell’innovazione tecnologica e tutela dei diritti fondamentali. Tale impostazione emerge sin dal considerando n.1 del Regolamento, onde viene esplicitato l’obiettivo di promuovere un’Intelligenza Artificiale “antropocentrica e affidabile”, idonea a rafforzare il mercato interno senza compromettere la democrazia, lo Stato di diritto e la protezione dei diritti fondamentali.</p>
<p style="text-align: justify;">La struttura della strategia normativa europea si fonda sulla classificazione dei sistemi di IA in base al livello di rischio, a cui corrispondono speculari obblighi differenziati e proporzionati. Tale approccio consente di modulare l’intensità della regolamentazione in funzione dell’impatto potenziale del sistema sui diritti e sulle libertà delle persone. È dunque prevista altresì un’implementazione graduale ed efficace delle nuove norme, attraverso variabili tempi di attuazione, sino alla completa applicazione del Regolamento nell’agosto 2026<a href="#_ftn42" name="_ftnref42">[42]</a>, con la conseguente attivazione dell’intero sistema di governance europeo e nazionale. In particolare, ogni Stato membro dovrà designare la propria autorità nazionale competente per la vigilanza e l’e<em>nforcement</em>, che verrà poi coordinata dall’<em>AI Board</em>, ai fini di una corretta applicazione del Regolamento. In Italia si è adottata la strada della diversificazione delle competenze, distribuite tra: AgID per gli aspetti tecnici; Garante Privacy per i dati personali; ACN per la cybersecurity. Pertanto, i soggetti dovranno interfacciarsi con una molteplicità di autorità per rendere legittimamente operativo il proprio sistema di IA.</p>
<p style="text-align: justify;">Non potendo analizzare in modo approfondito il Regolamento, per limiti espositivi e tematici, si rimanda per quanto attiene all’ambito di applicazione, alle definizioni, alle categorie di rischio e ai conseguenti obblighi, ad ulteriori approfondimenti<a href="#_ftn43" name="_ftnref43">[43]</a>, soffermandoci in questa sede sul tema dell’uso dell’IA nel settore della giustizia.</p>
<ul style="text-align: justify;">
<li><em>La giustizia nell’era dell’AI Act</em></li>
</ul>
<p style="text-align: justify;">L’impostazione del Regolamento (UE) 2024/1689 segue quella già tracciata dalla <em>&#8220;Carta Etica europea sull&#8217;utilizzo dell&#8217;Intelligenza Artificiale nei sistemi giudiziari&#8221;, </em>introdotta nel dicembre 2018 dalla Commissione europea per l’efficienza della giustizia (CEPEJ), sull’ inclusione dell&#8217;amministrazione della giustizia tra i settori di utilizzo dei sistemi di IA ad alto rischio. Tale classificazione è operata ai sensi del combinato disposto dell’art. 6, par. 2<a href="#_ftn44" name="_ftnref44">[44]</a>, con l’allegato III, n. 8, lett. a), dell’AI Act, ove vengono inclusi quei sistemi: “<em>destinati a essere usati da un&#8217;autorità giudiziaria o per suo conto per assistere un&#8217;autorità giudiziaria nella ricerca e nell&#8217;interpretazione dei fatti e del diritto e nell&#8217;applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie</em>”<a href="#_ftn45" name="_ftnref45">[45]</a>.</p>
<p style="text-align: justify;">I sistemi che rientrano in tale livello di rischio devono rispettare un articolato complesso di obblighi, tra i quali assumono rilievo centrale quelli di trasparenza, tracciabilità e sorveglianza umana (artt. 9–15 AI Act), nonché, in caso di utilizzo dell’IA generativa, di quelli previsti nel Capo V del Regolamento, che disciplina i modelli a uso <em>general purpose</em>. Sempre per ragioni di limitatezza espositiva, tali obblighi non verranno qui trattati, ma si riporta tra questi, quanto disposto dall’art. 14 del Regolamento. Tale articolo impone che questi sistemi siano progettati e sviluppati in modo da consentire una supervisione effettiva (<em>human in the loop</em>), idonea a prevenire o correggere risultati erronei, distorsivi o discriminatori, ciò al fine ultimo di garantire che l’IA non si trasformi in un decisore occulto, ma resti un mero strumento ausiliario; principio che vale anche per l’attività giurisdizionale. La centralità del giudice umano è stata recentemente approfondita nelle Linee guida dell’UNESCO sull’uso dei sistemi di intelligenza artificiale nelle corti e nei tribunali, il 3 dicembre 2025<a href="#_ftn46" name="_ftnref46">[46]</a>, onde viene chiarito che i sistemi di IA possono essere utilizzati esclusivamente come strumenti di supporto alle attività giudiziarie, senza mai incidere sulla titolarità e responsabilità della decisione.</p>
<p style="text-align: justify;">È bene però precisare che un sistema di IA rientra nella categoria ad alto rischio solo quando esso è in grado di influenzare materialmente l’esito del processo decisionale, ai sensi dell’art. 6, par. 3 AI Act. Sul punto, anche il considerando n. 53<a href="#_ftn47" name="_ftnref47">[47]</a> dell’AI Act ribadisce che sono esclusi dalla qualificazione di “alto rischio” quei sistemi destinati a svolgere compiti procedurali limitati e meccanici, tra i quali possiamo annoverare la gestione dei fascicoli, l’indicizzazione, la ricerca documentale, la traduzione o altre attività amministrative semplici.</p>
<p style="text-align: justify;">Si può dunque affermare che, nell’intero impianto dell’AI Act, il rischio non è individuato nella tecnologia in sé, bensì nell’impatto che l’uso dell’IA può avere su diritti fondamentali e garanzie processuali.  In virtù di ciò, a titolo esemplificativo, il Regolamento include tra i sistemi ad altro rischio quelli destinati ad essere utilizzati per valutare l&#8217;affidabilità degli elementi probatori nel corso delle indagini o del perseguimento dei reati, ovvero per determinare il rischio di recidiva.</p>
<p style="text-align: justify;">Diversamente da quanto è prospettabile in astratto, nella realtà concreta diviene complesso riuscire a scindere le ipotesi in cui vi sia, o non vi sia, un’influenza del sistema nella decisione umana; ciò proprio a fronte della inscindibilità dell’esito dell’interrelazione sistema-giudice (seguendo uno scambio continuo di <em>input </em>e <em>output</em>). Ne consegue che, richiamando i due concetti elaborati dal Premio Nobel per l’economia Kahneman<a href="#_ftn48" name="_ftnref48">[48]</a>, si possono distinguere: il “<em>Sistema 1” </em>(decisioni intuitive, rapide e automatiche) e il “<em>Sistema 2” </em>(decisioni razionali, lente e analitiche), nonché un terzo sistema, sintesi tra rapidità induttiva e riflessione razionale, chiamato “<em>Sistema 0</em>”.<a href="#_ftn49" name="_ftnref49">[49]</a> Quest’ultimo si configura come una sorta di “estensione cognitiva” — come la definirebbero i filosofi Clark e Chalmers<a href="#_ftn50" name="_ftnref50">[50]</a> — esterna al nostro cervello che “potenzia” le nostre capacità cognitive riuscendo a elaborare autonomamente grandi quantità di informazioni che sarebbero difficili da gestire per la mente umana, ma che necessitano comunque della stessa per poter dare un senso compiuto ai dati.</p>
<p style="text-align: justify;">In continuità con l’AI Act, nonché con la “<em>Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari</em>”, la CEPEJ ha approfondito, con specifico riferimento all’Intelligenza Artificiale generativa, i principi di neutralità tecnologica e di sussidiarietà nelle “<em>Linee guida sull’uso dell’intelligenza artificiale generativa per le corti</em>” del 5 dicembre 2025<a href="#_ftn51" name="_ftnref51">[51]</a>. Per quanto attiene all’IA generativa, con un’estensione concettuale anche agli LLM, essendo la stessa strutturalmente esposta al rischio di <em>hallucinations</em> cognitive, dovrebbe essere utilizzata solo in presenza di inefficienza o ineffettività di soluzioni tecnologiche alternative, e comunque previo svolgimento di valutazioni di rischio e di impatto a monitoraggio continuo. Ciò non esclude, tuttavia, i significativi benefici che l’IA generativa può offrire nel contesto professionale giudiziario attraverso una molteplicità di operazioni ausiliarie e strumentali, fermo restando l’obbligo di un’adeguata formazione del personale e degli utenti istituzionali.</p>
<p style="text-align: justify;">Possiamo concludere col dire che: più che strumento repressivo, l’AI Act è uno strumento di regolazione preventiva, che promuove una cultura di governance interna, di etica tecnologica e di responsabilità d’impresa. Ciò al fine ultimo di dare rinnovato vigore ai diritti fondamentali e alla dignità umana, secondo uno sguardo antropocentrico nell’impetuoso progresso tecnologico.</p>
<p style="text-align: justify;">
<ul style="text-align: justify;">
<li><em>La disciplina interna dell’Intelligenza Artificiale: una regolazione in attesa di attuazione</em></li>
</ul>
<p style="text-align: justify;">La lacuna normativa, protrattasi per anni nell’ordinamento italiano, si inserisce in un più ampio contesto di “digitalizzazione di facciata”, ben presente ancora oggi, in cui le innovazioni si traducono in una mera trasposizione dei modelli cartacei in formato digitale, senza una reale riforma dei processi organizzativi e, soprattutto, mentali degli operatori del diritto che possa consentire a questi strumenti di esprimere appieno le loro potenzialità<a href="#_ftn52" name="_ftnref52">[52]</a>. In questo senso, si parla di “<em>una digitalizzazione di facciata che ha semplicemente trasferito fogli di carta […] dentro i computer”.</em><a href="#_ftn53" name="_ftnref53">[53]</a></p>
<p style="text-align: justify;">Tale <em>vulnus </em>è stato oggi in parte colmato dal legislatore italiano con la legge 23 settembre 2025, n. 132, recante <em>“Disposizioni e deleghe al Governo in materia di Intelligenza Artificiale”</em><a href="#_ftn54" name="_ftnref54">[54]</a><em>, </em>emanata in adempimento dell’obbligo di dare attuazione alle prescrizioni eurounitarie. Va precisato che il Regolamento (UE) 2024/1689, ai sensi dell’art. 288, par. 2, TFUE, è direttamente applicabile negli ordinamenti degli Stati membri e non richiede recepimento. La legge n. 132/2025 risponde, pertanto, a esigenze di coordinamento, sistemico, di adeguamento dell’ordinamento nazionale ai profili organizzativi e istituzionali richiesti dall’AI Act, nonché di disciplina degli ambiti rimessi alla competenza statale; il tutto nel rispetto del primato del diritto dell’Unione. L’armonia con la normativa eurounitaria si è determinata anche alla luce dell’emanazione di un parere circostanziato (C (2024) 7814) del 5 novembre 2024 della Commissione Europea, con cui veniva richiesto un maggior allineamento alla disciplina europea<a href="#_ftn55" name="_ftnref55">[55]</a>. Tale rilievo di conformità con l’AI Act, è stato in parte superato con il rinvio alle definizioni previste dal Regolamento, nonché con l’introduzione del comma 5 dell’art 3 L.132/2025 che così recita: “<em>La presente legge non produce nuovi obblighi rispetto a quelli previsti dal regolamento (UE) 2024/1689 per i sistemi di Intelligenza Artificiale e per i modelli di Intelligenza Artificiale per finalità generali”. </em>Ancora, all’art. 1 L.132/2025 viene individuato proprio il Regolamento AI Act come parametro interpretativo della legge.</p>
<p style="text-align: justify;">Di contro, permangono attriti con la normativa europea, a titolo esemplificativo la scelta, all’art. 20<a href="#_ftn56" name="_ftnref56">[56]</a> L.132/2025, di individuare come autorità nazionali di vigilanza e controllo le Autorità governative AGID e ACN. L’incongruenza deriva proprio dalla natura governativa delle stesse, che pone il rischio di una diminuzione della garanzia dell’indipendenza. Altre preoccupazioni riguardano l’imposizione degli obblighi e limiti, più rigidi rispetto a quelli previsti a livello europeo, gravanti sui settori come sanità, professioni intellettuali e, appunto, giustizia. Inoltre, il legislatore italiano sembra voler mantenere margini di autonomia nella regolazione di alcuni profili particolarmente sensibili, richiamati dall’art. 5, comma 1, lett. d), della l. n. 132/2025, quali l’introduzione di vincoli territoriali sulla localizzazione dei server impiegati dai sistemi di Intelligenza Artificiale utilizzati dalle pubbliche amministrazioni, nonché la previsione di criteri di preferenza per fornitori nazionali di soluzioni di IA. Tali scelte, pur essendo giustificate da esigenze di sicurezza, protezione dei dati e sovranità digitale, si collocano in una potenziale area di tensione con i principi fondanti l’ordinamento dell’Unione europea in materia di libera concorrenza e libera circolazione dei servizi, come declinati nel TFUE, in particolare con riferimento agli artt. 49, 56 e 101–109 TFUE. Ciò può portare a conseguenze in termini di apertura di una procedura d’infrazione a carico dell’Italia o di una disapplicazione della normativa interna da parte del giudice nazionale.</p>
<p style="text-align: justify;">Tornando all’analisi del dato normativo interno, questo si presenta come una legge delega a forte contenuto programmatico, caratterizzato da un impianto valoriale dichiaratamente ispirato ai principi di centralità della persona, trasparenza, responsabilità, controllo umano e tutela dei diritti fondamentali (ad esempio, il pieno accesso alle funzionalità dei sistemi di IA per le persone con disabilità, su base di uguaglianza e non discriminazione).</p>
<p style="text-align: justify;">Relativamente al tema di nostro interesse, dell’utilizzo dei sistemi di IA in sostituzione e/o in ausilio al giudice, il fulcro della disciplina è contenuto nel Capo II, recante le discipline settoriali differenziate, all’art. 15, rubricato “<em>Impiego dei sistemi di Intelligenza Artificiale nell&#8217;attività giudiziaria</em>”. Qui, l’utilizzo dei sistemi di IA viene rigorosamente circoscritto dal comma 1, mediante una riserva esclusiva del magistrato relativamente all’interpretazione e applicazione della legge, alla valutazione dei fatti e delle prove, nonché all’adozione dei provvedimenti giudiziari. In quest’ottica, l’adozione dei modelli intelligenti si dovrebbe limitare a funzioni ausiliarie o di supporto, nelle attività di organizzazione e semplificazione del lavoro giudiziario, nonché a quelle amministrative accessorie. Tali consentiti impieghi, ai sensi del comma 2 dell’art. 15 l.132/2025, saranno disciplinati dal Ministero della Giustizia. Inoltre, il Ministero, sentite AGID e ACN, dovrà autorizzare le sperimentazioni<a href="#_ftn57" name="_ftnref57">[57]</a> negli uffici giudiziali di sistemi di IA, sino alla compiuta applicazione dell’AI Act<a href="#_ftn58" name="_ftnref58">[58]</a>. Infine, secondo il comma 4, il Ministro della Giustizia, nell’elaborazione delle linee programmatiche sulla formazione dei magistrati, dovrà individuare un percorso formativo obbligatorio per i magistrati e per il personale amministrativo per un uso consapevole, critico e responsabile delle tecnologie automatizzate.</p>
<p style="text-align: justify;">Alla luce di tale impostazione, è possibile rilevare come la formulazione della legge n. 132 del 2025, nel riferirsi in modo ampio alla “organizzazione dei servizi” e alla “semplificazione del lavoro giudiziario”, rischia di generare ambiguità interpretative, nella misura in cui potrebbe indurre a ricondurre nell’area “neutra” degli impieghi anche applicazioni che, pur non sostituendo formalmente il giudice, incidono in modo significativo sulle fasi cognitive preparatorie della decisione. Tale rischio è limitato dalla circostanza che vede prevalere la qualificazione europea del sistema come ad alto rischio, non eludibile da una diversa qualificazione nazionale. Infatti, il criterio adottato dal legislatore europeo è di natura sostanziale e funzionale, fondato sull’impatto concreto dell’attività automatizzata sul processo decisionale, indipendentemente dalla sua qualificazione formale. Sul punto, il considerando n. 61 qualifica come <em>high-risk</em> i sistemi destinati ad assistere le autorità giudiziarie nell’esercizio delle loro funzioni, escludendo da tale categoria esclusivamente quelli impiegati per attività amministrative puramente accessorie, prive di incidenza sull’effettiva risoluzione dei singoli casi. Inoltre, si richiama il succitato parere circostanziato della Commissione europea, con cui si è invitata l’Italia a non discostarsi dal sistema di classificazione armonizzato previsto dall’AI Act, evitando sia di estendere la categoria delle pratiche vietate oltre i limiti tassativi dell’articolo 5 AI Act, sia di escludere in via generalizzata l’impiego di sistemi qualificati come ad alto rischio che, in concreto, non incidano materialmente sull’esito del processo decisionale e non presentino un rischio significativo per i diritti fondamentali. Il Regolamento europeo, nel suo articolo 5, riserva divieti espressi e tassativi per pratiche considerate intrinsecamente incompatibili con i diritti fondamentali, vietando anzitutto i sistemi di IA che impiegano tecniche subliminali, manipolative o ingannevoli idonee a distorcere in modo sostanziale il comportamento di una persona, così come quelli che sfruttano vulnerabilità legate all’età, alla disabilità o a specifiche condizioni socio-economiche, qualora ne derivi o possa derivarne un danno significativo. Sono altresì vietate le pratiche di <em>social scoring</em>, ossia i sistemi che valutano o classificano l’affidabilità sociale delle persone sulla base del loro comportamento o di caratteristiche personali, determinando trattamenti pregiudizievoli o sproporzionati, specialmente quando tali valutazioni siano utilizzate in contesti diversi da quelli in cui i dati sono stati originariamente raccolti. Inoltre, non è ammessa la creazione o l’ampliamento di banche dati di riconoscimento facciale mediante raccolta indiscriminata di immagini, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e i sistemi di riconoscimento delle emozioni in contesti quali il lavoro e l’istruzione. Infine, è vietato, salvo eccezioni rigorosamente delimitate, l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico per finalità di contrasto.</p>
<p style="text-align: justify;">Proseguendo con i profili di ambiguità e criticità, nel passaggio dal comma 1 ai commi 2 e 3 dell’art. 15 L.132/2025 viene attribuito al Ministro della Giustizia un ruolo centrale, non solo nella definizione delle linee programmatiche per la formazione dei magistrati, ma anche nella disciplina e nell’autorizzazione degli impieghi dei sistemi di IA nell’organizzazione dei servizi giudiziari. Questa scelta, sebbene rispondente alla volontà di dotare l’ordinamento di regole operative per l’uso della tecnologia in settori sensibili, solleva questioni di coerenza con i principi costituzionali di autonomia e indipendenza della magistratura. Infatti, la materia dell’Intelligenza Artificiale — pur muovendosi nell’ambito dell’organizzazione amministrativa dei servizi — si intreccia inevitabilmente con la struttura interna degli uffici giudiziari e con il modo in cui l’attività giurisdizionale viene gestita nella quotidianità. Peraltro, la formula secondo cui il Ministero della Giustizia “disciplina” lascia aperta la questione se si tratti di atti regolamentari, linee guida, protocolli tecnici o mere circolari amministrative. La Costituzione, infatti, non tutela soltanto l’elemento decisorio della funzione giurisdizionale — riservato al giudice — ma anche la sua autonomia funzionale in ordine all’organizzazione delle attività interne e alla determinazione delle condizioni di esercizio della giurisdizione.</p>
<p style="text-align: justify;">Ad accrescere le perplessità verso l’art. 15 L. 132/2025 è la totale assenza di tutela dell’autonomia delle giurisdizioni ulteriori rispetto a quella ordinaria, ovverosia la giurisdizione amministrativa, contabile, tributaria e militare. Ciascuna giurisdizione, a garanzia della propria pretesa autonomia, dispone di un organo di autogoverno, che nello specifico caso di quella amministrativa, è il Consiglio di Presidenza della Giustizia Amministrativa.</p>
<p style="text-align: justify;">Paradossale è che non vi sia alcun riferimento all’art.15 ad un coordinamento con la giurisdizione amministrativa, la quale, ben prima dell’emanazione della legge nazionale, ha affrontato in modo sistematico e creativo il rapporto tra tecnologia automatizzata e funzioni pubbliche. La mancata valorizzazione di tale patrimonio, unitamente all’adozione di una disciplina che sembra modellata più sulla giurisdizione ordinaria che sulla pluralità degli assetti giurisdizionali italiani, rischia di dar luogo ad asimmetrie applicative e violazioni di autonomie costituzionalmente protette.</p>
<ul style="text-align: justify;">
<li><em>Prospettive applicative della L.132/2025</em></li>
</ul>
<p style="text-align: justify;">Si dovrà pertanto attendere, data la natura della legge prevalentemente programmatica, per comprendere l’effettività della disciplina e la conformità all’AI Act, l’attuazione dell’ampia delega conferita al Governo. Quest’ultimo dovrà adottare, una serie di decreti legislativi, tra cui, a titolo esemplificativo, come disposto dall’art. 16, quelli volti a delineare gli obblighi in materia di utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di IA.</p>
<p style="text-align: justify;">Lo stato di attuazione della norma, inoltre, dovrà seguire, sempre secondo la L.132/2025, quanto disposto nella Strategia nazionale per l’Intelligenza Artificiale, elaborata almeno una volta ogni due anni, dalla struttura della Presidenza del Consiglio dei ministri competente per l’innovazione tecnologica e la transizione digitale, in collaborazione con le Autorità nazionali per l’IA, previa consultazione dei Ministeri maggiormente coinvolti, e approvata da parte del Comitato interministeriale per la transizione digitale. La Strategia sarà atta a promuovere la collaborazione tra settore pubblico e privato, incentivare la ricerca e la formazione, nonché indirizzare le misure per lo sviluppo imprenditoriale e industriale dell’IA, nel rispetto dei principi del diritto internazionale umanitario e della tutela dei diritti umani. Inoltre, è stato individuato un “<em>Comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni attivi nell’innovazione digitale e nell’IA</em>” &#8211; composto dai ministri e dalle autorità competenti &#8211; e presieduto dal Presidente del Consiglio o da un’Autorità a ciò delegata &#8211; chiamato a coordinare e promuovere le attività di ricerca, sviluppo, sperimentazione e formazione svolte da enti pubblici e privati vigilati o finanziati dallo Stato.</p>
<p style="text-align: justify;">Nel complesso, la legge 132/2025 non introduce un modello di giustizia algoritmica, ma consolida un paradigma di uso strumentale, vigilato e costituzionalmente orientato dell’Intelligenza Artificiale, nel quale la tecnologia è ammessa solo nella misura in cui rafforzi, e non indebolisca o sostituisca, la centralità del giudice.</p>
<ol style="text-align: justify;" start="7">
<li><em>Il Consiglio Superiore della Magistratura e l’IA: indirizzi, limiti e prospettive concrete</em></li>
</ol>
<p style="text-align: justify;">Nel delineato contesto, segnato da una regolamentazione ancora incompleta e da un’ampia incertezza applicativa &#8211; nelle more dell&#8217;adozione, da parte del Ministero della Giustizia, di disposizioni sull’Intelligenza Artificiale (anche generativa) a supporto delle attività giurisdizionali e della piena applicazione degli obblighi contenuti nel Regolamento AI Act &#8211; si collocano le Raccomandazioni del Consiglio Superiore della Magistratura (CSM) dell’8 ottobre 2025<a href="#_ftn59" name="_ftnref59">[59]</a>.</p>
<p style="text-align: justify;">Tali Raccomandazioni costituiscono un rilevante punto di riferimento operativo per l’uso dell’Intelligenza Artificiale nell’amministrazione della giustizia ordinaria. In quanto atto di indirizzo emanato dall’organo di autogoverno della magistratura ordinaria, esse assumono, per le altre giurisdizioni, un valore meramente persuasivo, fondato sull’autorevolezza dell’organo emanante e sulla funzione di orientamento sistematico che esse svolgono, soprattutto in assenza, allo stato, di analoghe indicazioni provenienti dai rispettivi organi di autogoverno (successivamente all’entrata in vigore della L. n. 132/2025).</p>
<p style="text-align: justify;">Venendo al contenuto delle Raccomandazioni, in principio, viene specificato che<em>: “l&#8217;impiego di questa tecnologia non si limita a una funzione meramente strumentale o organizzativa, come avviene nel caso degli applicativi tradizionali per la scrittura, la catalogazione o la ricerca documentale, i quali si limitano ad eseguire comandi impartiti dall&#8217;utente. I sistemi di Intelligenza Artificiale possono invece essere utilizzati per supportare e non sostituire, alcune fasi preparatorie dell&#8217;attività decisionale, offrendo sintesi, suggerimenti o correlazioni informative che affiancano il ragionamento umano senza determinarne gli esiti”</em><a href="#_ftn60" name="_ftnref60">[60]</a>.</p>
<p style="text-align: justify;">Di seguito, vengono individuati i rischi connessi all’uso dell’IA, ponendo una particolare attenzione alle allucinazioni (generazioni di contenuti non basati sulla realtà oggettiva) e ai cd. <em>sycophancies </em>(generazioni di contenuti compiacenti), in quanto fenomeni intrinseci alla natura probabilistica dei modelli di Intelligenza Artificiale generativa. L’alea degli esiti prodotti da questi sistemi impone un costante e critico controllo umano, nonché un rigido presidio di trasparenza e verificabilità.</p>
<p style="text-align: justify;">Nell’attuale fase transitoria, il CSM ha dunque individuato, in concreto, un insieme di impieghi dei sistemi intelligenti compatibile con i principi costituzionali, con i diritti delle parti e con la disciplina eurounitaria, precisando, tuttavia, come tali indicazioni non vogliano essere esaustive, ma servano da orientamento operativo per gli uffici giudiziari. Troviamo: ricerche dottrinali, sintesi di provvedimenti ostensibili e contributi dottrinali, organizzazione del lavoro giudiziario, supporto agli uffici c.d. &#8220;affari semplici&#8221;, supporto ad attività giurisdizionali gestionali attraverso il controllo della documentazione (soprattutto contabile nonché delle certificazioni) prodotta in atti ove opportunamente anonimizzata, confronto tra soluzioni tecniche per la gestione fascicoli, generazione automatica di presentazioni (slides), produzione di tabelle e grafici, revisione linguistica e stilistica di testi, catalogazione e archiviazione per materia dei quesiti ai CTU, predisposizione di calendari d&#8217;udienza, traduzione assistita e correzione ortografica.</p>
<p style="text-align: justify;">Occorre tuttavia precisare che anche attività apparentemente neutre, quali la sintesi automatizzata degli atti del fascicolo o l’estrazione di passaggi ritenuti rilevanti, non sono ontologicamente prive di incidenza sul processo decisionale. Infatti, ogni operazione di selezione e compressione informativa implica criteri di rilevanza, talora impliciti, che possono orientare l’attenzione del magistrato e influenzarne, almeno indirettamente, il percorso argomentativo<a href="#_ftn61" name="_ftnref61">[61]</a>.</p>
<p style="text-align: justify;">Tra gli ambiti di impiego dell’Intelligenza Artificiale individuati come particolarmente delicati, rientra anche quello delle ricerche giurisprudenziali, che presenta una natura intrinsecamente bifronte. Se, da un lato, l’IA può costituire un valido strumento di supporto alla consultazione delle banche dati, consentendo la costruzione e l’esecuzione di stringhe di ricerca complesse e semanticamente raffinate, dall’altro lato l’automatizzazione dei criteri di selezione dei precedenti o la loro organizzazione secondo determinate ricorrenze statistiche può incidere, se non adeguatamente governata, sull’attività valutativa del giudice. In particolare, l’impiego di strumenti che, pur senza formulare decisioni, tenda a evidenziare orientamenti giurisprudenziali prevalenti o ricorrenti rischia di produrre dinamiche di cristallizzazione interpretativa.  Tuttavia, tale rischio non è ineluttabile, potendo &#8211; questi sistemi che applicano logiche di giustizia predittiva &#8211; essere progettati e utilizzati secondo logiche di trasparenza e pluralismo informativo. Così facendo, i medesimi strumenti possono assolvere alla funzione opposta, portando all’attenzione del magistrato anche orientamenti minoritari o dissonanti della giurisprudenza, agevolando ricerche più mirate e favorendo una più consapevole diversificazione delle opzioni interpretative, in un’ottica riflessiva e stimolante del panorama giurisprudenziale; il tutto in tempi più compressi.</p>
<p style="text-align: justify;">Di conseguenza, possiamo affermare che i rischi non sono nulli e, per essere colmati, richiedono una validazione umana effettiva e consapevole; tuttavia, quanto più il controllo si fa penetrante, tanto più si attenua il guadagno in termini di efficienza che giustifica l’impiego dello strumento, rendendo evidente la tensione strutturale tra automazione e garanzia.</p>
<p style="text-align: justify;">I succitati ausili, sempre secondo il CSM, potranno avvenire a fronte di: “<em>una vigilanza stringente su tre piani: la natura e l&#8217;architettura dei sistemi utilizzati, la trasparenza degli algoritmi di selezione e classificazione e il ruolo attivo e critico del magistrato nel vaglio dei risultati”</em><a href="#_ftn62" name="_ftnref62">[</a><a href="#_ftn62" name="_ftnref62">62]</a>. Un altro elemento evidenziato &#8211; in linea con i principi costituzionali di autonomia della funzione giurisdizionale e con la riserva decisionale esclusiva prevista dall’articolo 15 della legge 132/2025 &#8211; è dunque quello della responsabilizzazione diretta del magistrato circa i risultati prodotti dall’IA. Infatti, nelle Raccomandazioni viene esplicitamente espresso come: “<em>Ogni risultato prodotto da sistemi di Intelligenza Artificiale deve essere verificato, corretto e assunto sotto la responsabilità personale del magistrato che decide</em>.”<a href="#_ftn63" name="_ftnref63">[63]</a></p>
<p style="text-align: justify;">Infine, le Raccomandazioni, guardando al futuro, proponendo e incentivando la sperimentazione in ambienti protetti sotto la supervisione congiunta del Ministero della giustizia e del CSM, creando <em>sandbox</em> regolatorie per testare le soluzioni innovative<a href="#_ftn64" name="_ftnref64">[64]</a> in condizioni controllate, garantendo un sistema di audit periodico. Tale impostazione mira a fare della fase transitoria antecedente alla piena applicazione dell’AI Act non un mero periodo di attesa, bensì un’occasione di apprendimento istituzionale e di progressiva maturazione delle competenze, funzionale a un’integrazione dell’Intelligenza Artificiale coerente con i principi dello Stato di diritto.</p>
<p style="text-align: justify;">Nel complesso, la delibera dell’8 ottobre 2025 segna un passo importante nel processo di <em>governance</em> dell’Intelligenza Artificiale nella giustizia, fornendo un memento chiave: l’IA può assistere il magistrato nelle attività strumentali o accessorie che comportano un elevato dispendio di tempo e risorse cognitive, ma non può mai sostituirsi alla valutazione giuridica.  Alla medesima conclusione è giunta l’Unione delle Camere Penali Italiane (UCPI) attraverso l’iniziativa dell’”Osservatorio Scienza, processo e intelligenza artificiale”, costituita per analizzare criticamente l’interfaccia tra IA, diritto penale e processo penale, che ha prodotto un articolato di obiettivi denominato “<em>Carta dei Valori dell’Unione delle Camere Penali Italiane in materia di giustizia penale, scienza e intelligenza artificiale</em>”, presentato a Roma il 17 gennaio 2025<a href="#_ftn65" name="_ftnref65">[65]</a>. Ancora, anche la recente “Carta dei Principi” (c.d. progetto HOROS) adottata dall’Ordine degli Avvocati di Milano, ha individuato un insieme di criteri deontologici per l’uso dell’intelligenza artificiale in ambito forense, fondati sui succitati principi di trasparenza, responsabilità, competenza e, soprattutto, centralità della decisione umana, quale presidio imprescindibile a tutela dei diritti e della fiducia nel sistema giustizia<a href="#_ftn66" name="_ftnref66">[66]</a>.</p>
<ol style="text-align: justify;" start="8">
<li><em>Il Ministero della giustizia e suoi atti di indirizzo e sperimentazione</em></li>
</ol>
<p style="text-align: justify;">Il Ministero della Giustizia, a seguito dell’approvazione della L. 132/2025 e in apertura dell’anno 2026, è intervenuto sul tema, con un atto di indirizzo politico istituzionale<a href="#_ftn67" name="_ftnref67">[67]</a> ove sono state illustrate le priorità da attuare in coerenza con l’azione di Governo e con i principali strumenti di programmazione economico-finanziaria. In particolare, sul piano tecnico e infrastrutturale, ha affermato di puntare all’integrazione dei sistemi di Intelligenza Artificiale a supporto di magistrati e personale amministrativo, al fine di potenziare le funzioni giurisdizionali e organizzative, garantire la piena interoperabilità con gli applicativi ministeriali e migliorare la qualità e la sicurezza delle banche dati giudiziarie e delle funzioni amministrative (riduzione delle vulnerabilità rispetto agli attacchi cyber, la protezione dei dati sensibili, migrazione verso soluzioni cloud).</p>
<p style="text-align: justify;">L’attuazione di tali obiettivi è stata avviata mediante un’attività sperimentale di messa a disposizione, su base volontaria (mediante compilazione di una dichiarazione di volontaria esclusione), per i magistrati togati, della licenza Microsoft Copilot 365<a href="#_ftn68" name="_ftnref68">[68]</a> integrata nel pacchetto Office 365 già in uso.<a href="#_ftn69" name="_ftnref69">[69]</a> Ed è all’evento “Diritti, Algoritmi e Nuovi equilibri”, promosso dalla responsabile del Dipartimento per l’innovazione del Ministero della Giustizia, Antonella Ciriello, che sono stati illustrati i criteri di base e i casi d’uso di questa innovativa sperimentazione<a href="#_ftn70" name="_ftnref70">[70]</a>. Il primo caso d’uso riguarda il supporto alle attività di analisi e rielaborazione del materiale processuale da parte del giudice, in particolare attraverso la predisposizione di schede riepilogative, l’individuazione di passaggi rilevanti nei fascicoli, l’organizzazione delle informazioni utili alla preparazione delle relazioni e delle discussioni collegiali, fino alla previsione di una “funzione di estrattore di orientamenti” (estrattore di PDM personalizzato) da archivi di sentenze. Ulteriori applicazioni quali la predisposizione di schede operative o linee guida destinate agli addetti dell’Ufficio per il Processo (ad esempio, per la verifica delle notifiche degli atti introduttivi), nonché l’elaborazione assistita di punti di motivazione (con una differenziazione tra Agenti Punti di Motivazione basico e personalizzato<a href="#_ftn71" name="_ftnref71">[71]</a>). Il secondo caso d’uso concerne, invece, il supporto organizzativo e gestionale dell’Ufficio del Processo (UPP), come ausilio nel monitoraggio dei dati statistici, delle buone prassi e delle aree di miglioramento, nell’allocazione delle risorse, nonché nell’elaborazione comparativa delle norme legislative, circolari del CSM e dati attuali. Inoltre, può essere un ausilio nella strutturazione di archivi documentali, la predisposizione di indici e tabelle, la gestione di calendari e flussi di lavoro. Anche in questo caso, l’IA è concepita come ausilio strumentale, finalizzato all’efficienza amministrativa e alla razionalizzazione delle attività di contorno alla funzione giurisdizionale.</p>
<p style="text-align: justify;">In tal modo, la sperimentazione si colloca coerentemente nel solco tracciato dalle Raccomandazioni del CSM e dai principi dell’AI Act, configurando l’intelligenza artificiale generativa non come sostituto del giudice, ma come strumento di supporto organizzativo e conoscitivo, utilizzabile solo entro confini rigorosamente presidiati.</p>
<ol style="text-align: justify;" start="9">
<li><em>Il ruolo pionieristico della giurisdizione amministrativa</em></li>
</ol>
<p style="text-align: justify;">La giurisprudenza amministrativa, e in particolare il Consiglio di Stato, nella sentenza n. 8472 del 2019, avevano già individuato condizioni stringenti di legittimità della decisione algoritmica — conoscibilità del sistema, comprensibilità della motivazione, intervento umano correttivo e tutela contro le discriminazioni — che anticipavano i requisiti dei sistemi di IA, successivamente recepiti dal legislatore europeo e, poi, da quello nazionale.</p>
<p style="text-align: justify;">A seguito della succitata pronuncia giurisprudenziale, sempre in uno spirito pionieristico, in un momento antecedente alla normativa italiana (L.132/2025), è stato pubblicato il 4 ottobre 2024 dal Servizio per l’Informatica del Segretariato Generale della Giustizia Amministrativa un documento dal titolo “<em>Intelligenza Artificiale e Giustizia amministrativa: strategie di impiego, metodologie e sicurezza</em>”<a href="#_ftn72" name="_ftnref72">[72]</a>. Tale atto, frutto di un lavoro istituzionale orientato alla concretezza operativa, costituisce un importante riferimento programmatico per l’introduzione e il governo dei sistemi di IA nella sfera della giustizia amministrativa. Nello specifico, il Segretariato generale ha delineato una serie di prescrizioni operative volte a governare l’utilizzo dell’Intelligenza Artificiale negli uffici giudiziari amministrativi, fondate su alcuni assi portanti: (i) la riaffermazione della centralità del giudice umano, quale unico titolare della funzione decisionale; (ii) il divieto di impiego dell’IA per la redazione automatica della motivazione o per la soluzione del caso concreto; (iii) l’ammissibilità dell’IA esclusivamente come strumento di supporto tecnico-organizzativo o di ausilio alla ricerca giurisprudenziale e dottrinale; (iv) l’obbligo di garantire trasparenza, tracciabilità e controllabilità degli strumenti adottati, al fine di evitare forme di opacità incompatibili con i principi del giusto processo.</p>
<p style="text-align: justify;">Il Segretariato Generale ha dato così vita a un’architettura di <em>governance</em> interna dell’IA, fondata su alcuni principi cardine: la centralità del giudice umano quale unico titolare della funzione decisionale; il divieto assoluto di utilizzo dell’IA per la redazione, anche in forma embrionale, dei provvedimenti giurisdizionali; l’ammissibilità dell’IA esclusivamente come strumento di supporto tecnico-organizzativo e conoscitivo; la necessità di assicurare trasparenza, tracciabilità e controllabilità dei sistemi, così da evitare qualsiasi forma di opacità incompatibile con il giusto processo.</p>
<p style="text-align: justify;">Particolarmente significativa, sotto il profilo sistematico, è la scelta di espungere espressamente l’ipotesi della redazione di bozze di sentenze tramite IA, inizialmente affiorata in versioni informali del documento, e consapevolmente espunta proprio per evitare ogni possibile ambiguità sul ruolo dell’algoritmo nel processo decisionale.  Tale scelta segnala una consapevole presa di distanza da modelli di automazione spinta della funzione giurisdizionale e riafferma la natura eminentemente umana della decisione, nonché della motivazione, quale luogo privilegiato di manifestazione della logica adottata.</p>
<p style="text-align: justify;">Proseguendo nell’analisi dell’atto, vengono individuati espressamente, a fini di chiarezza, e riducendo al minimo le ambiguità, i casi d’uso ammessi riconducibili ad attività preparatorie o di approfondimento. I casi d’uso individuati sono limitati ad attività preparatorie, organizzative o di approfondimento, ricondotti a due macro-categorie. La prima comprende applicazioni volte ad agevolare l’attività del giudice senza alcuna componente creativa, quali l’identificazione di ricorsi correlati, la ricerca avanzata di precedenti giurisprudenziali basata su connessioni semantiche e la rilevazione automatica di norme e pronunce richiamate negli atti difensivi. In tali ipotesi, l’Intelligenza Artificiale consente una significativa riduzione del carico cognitivo e dei tempi di consultazione, senza interferire con la valutazione giuridica riservata al giudice. La seconda categoria, più delicata, riguarda l’anonimizzazione dei provvedimenti giurisdizionali, che incide indirettamente anche sulla qualità e sull’affidabilità delle ricerche giurisprudenziali, configurandosi come punto di equilibrio tra due esigenze contrapposte: la protezione dei dati personali e la preservazione della comprensibilità del testo decisionale.</p>
<p style="text-align: justify;">Nel complesso, il modello delineato dal Segretariato Generale della Giustizia Amministrativa può essere letto, in chiave accademica, come un esempio virtuoso di “IA guidata dall’istituzione”: una tecnologia sviluppata e governata dall’interno, con il coinvolgimento diretto dei magistrati, non delegata a fornitori esterni secondo logiche meramente efficientistiche.</p>
<p style="text-align: justify;">In attuazione di tali precetti, il Servizio per l’Informatica del Segretariato Generale della Giustizia Amministrativa<a href="#_ftn73" name="_ftnref73">[73]</a>, ha sviluppato, in via sperimentale, una piattaforma di Intelligenza Artificiale caratterizzata da una governance tecnologica interna e controllata. Infatti, i dati di addestramento dei modelli provengono esclusivamente da database interni, senza ricorso a fonti aperte o esterne, con un evidente rafforzamento delle garanzie di sicurezza e riservatezza. Sono inoltre realizzate <em>pipeline</em> di sviluppo che consentono un controllo puntuale e continuo, di modo che ogni operazione sia tracciabile e spiegabile. Ciò fa sì che la supervisione umana non si esaurisca nella fase di addestramento iniziale, ma prosegua nel <em>fine tuning</em> successivo, in un’ottica di riesame continuo.</p>
<p style="text-align: justify;">La possibilità di avviare progetti di IA nella Giustizia amministrativa è stata resa possibile da tre precondizioni strutturali. In primo luogo, un livello di digitalizzazione già molto elevato<a href="#_ftn74" name="_ftnref74">[74]</a>, senza il quale l’adozione di strumenti di Intelligenza Artificiale sarebbe rimasta puramente teorica. In secondo luogo, scelte infrastrutturali lungimiranti, come la migrazione verso il <em>cloud</em><a href="#_ftn75" name="_ftnref75">[75]</a>. In terzo luogo, una forte integrazione delle competenze, realizzata attraverso la presenza, all’interno del Servizio per l’informatica della Giustizia amministrativa, di una componente magistratuale che lavora in stretta sinergia con quella ingegneristica.</p>
<p style="text-align: justify;">Stante la presenza di tali precondizioni, la giustizia amministrativa, nel tempo, ha progressivamente sviluppato un <em>corpus</em> significativo di documenti ufficiali, iniziative formative, materiali di indirizzo, nonché convegni che testimoniano una crescente attenzione istituzionale al tema.</p>
<p style="text-align: justify;">Tra questi, è importante citare il Piano Integrato di Attività e Organizzazione (PIAO) 2025–2027<a href="#_ftn76" name="_ftnref76">[76]</a> del Segretariato Generale della Giustizia amministrativa, che inserisce l’Intelligenza Artificiale tra le leve strategiche di innovazione dell’amministrazione giudiziaria, ribadendo tuttavia con chiarezza che il suo impiego dovrà rimanere confinato a funzioni di supporto strumentale e organizzativo. Il PIAO sottolinea, in particolare, l’esigenza di una governance fondata sulla tracciabilità, sulla sicurezza, evolvendo verso un nuovo settore di ricerca denominato &#8220;Intelligenza Artificiale spiegabile&#8221;, c.d. <em>explainable AI</em><a href="#_ftn77" name="_ftnref77">[77]</a>,che mira a rendere trasparenti i complessi e spesso oscuri algoritmi di apprendimento automatico, fornendo, al contempo, preziosi spunti per delineare una architettura dei prodotti di IA più sicura in relazione agli specifici rischi di sicurezza che la caratterizzano. Questi strumenti di <em>explenable AI</em> sono un insieme di metodologie e tecniche concepite per rendere comprensibili, verificabili e giustificabili agli stakeholder (cittadini, amministrazioni, giudici) le decisioni assunte da sistemi di IA.  Tuttavia, ad oggi, come sottolinea parte della dottrina<a href="#_ftn78" name="_ftnref78">[78]</a>, tali tecnologie forniscono spiegazioni &#8211; nei sistemi molto complessi &#8211; solo parziali, locali e talvolta riduttive rispetto alla reale complessità del modello. Sono metodi che non aprono la “scatola nera”, ma costruiscono un modello semplificato che ne imita il comportamento in un contesto circoscritto. Alcuni studiosi, infatti, parlano di <em>plausible explanations</em>, ossia spiegazioni che sono plausibilmente reali, ma non permettono un controllo effettivo sulla correttezza logico-matematica del modello.</p>
<p style="text-align: justify;">Il futuro dell’utilizzo di questi sistemi di IA, pertanto, dipenderà dalla capacità di costruire strumenti di <em>explainable AI</em>, di auditabilità<a href="#_ftn79" name="_ftnref79">[79]</a> e di certificazione sempre più raffinati.</p>
<p style="text-align: justify;">
<ol style="text-align: justify;" start="10">
<li><em>Le competenze del magistrato nell’era dell’Intelligenza Artificiale</em></li>
</ol>
<p style="text-align: justify;">La riflessione sull’impiego dell’Intelligenza Artificiale nell’attività giurisdizionale non può prescindere dal tema, preliminare e strutturale, dell’alfabetizzazione tecnologica<a href="#_ftn80" name="_ftnref80">[80]</a> del magistrato. L’uso consapevole di sistemi algoritmici presuppone, infatti, una conoscenza diretta del loro funzionamento, dei loro limiti intrinseci e delle condizioni entro cui i risultati prodotti possono essere considerati affidabili. Solo attraverso tale conoscenza è possibile comprendere quando e perché un sistema sbaglia, come formulare interrogazioni (<em>prompt</em>) adeguate e fino a che punto sia legittimo confidare negli output generati, mantenendo le necessarie cautele per evitare distorsioni cognitive e decisioni eterodirette.</p>
<p style="text-align: justify;">Infatti, numerosi studi empirici hanno evidenziato come l’interazione con sistemi di Intelligenza Artificiale attivi specifici <em>bias</em> cognitivi, capaci di incidere in modo significativo sul processo decisionale umano. In particolare, la rapidità e la semplicità con cui l’IA produce soluzioni accentua la tendenza ad una “pigrizia interpretativa”<a href="#_ftn81" name="_ftnref81">[81]</a> che induce il giudice, o più in generale il decisore, ad appiattirsi sulle soluzioni in modo acritico, senza operare riflessioni sul punto. Tale fenomeno da un lato deriva dall’acritico ottimismo verso l’innovazione tecnologica, il c.d. <em>proinnovation bias</em><a href="#_ftn82" name="_ftnref82">[82]</a>, coniugato spesso a una basilare, se non nulla, conoscenza del funzionamento di queste tecnologie. Peraltro, tale affidamento incondizionato, è tanto maggiore quanto più un sistema di IA è complesso, innovativo e “potente”, in quanto il decisore percepisce come maggiore l’affidabilità della macchina. Tale convinzione non tiene conto del fatto che, l’accuratezza media di un algoritmo, per quanto statisticamente alta, non si traduce in certezza sul singolo caso concreto, che è, invece, proprio quello che interessa al giudice. Dall’altro lato, incide notevolmente la pressione sul magistrato di un costante innalzamento della produttività.  L’obiettivo dello “smaltimento dei fascicoli” — parametro centrale nelle valutazioni di professionalità e nei programmi di gestione degli uffici definiti dal Consiglio Superiore della Magistratura<a href="#_ftn83" name="_ftnref83">[83]</a>— rischia di trasformare l’IA da strumento di ausilio in una scorciatoia decisionale in grado di far raggiungere al decisore gli standard di efficienza burocratica.</p>
<p style="text-align: justify;">Volendo essere più specifici, si identificano due fenomeni cognitivi contrapposti: da un lato, quello già citato, dell’<em>automatic bias, </em>ossia della tendenza dell’utilizzatore a riporre una fiducia indiscriminata e acritica nell’output dell’algoritmo; dall’altro, in direzione opposta, troviamo quello del <em>conservatism bias, </em>ossia il rifiuto di una raccomandazione corretta della macchina e una prevalenza di una soluzione umana errata in virtù di un’assoluta sfiducia verso i sistemi intelligenti. La rilevanza concreta di tali dinamiche emerge con chiarezza da studi empirici condotti in ambito medico sull’impiego di sistemi di Intelligenza Artificiale a supporto della diagnosi. In particolare, <em>l’automation bias</em><a href="#_ftn84" name="_ftnref84">[84]</a>, inteso come accettazione di un suggerimento errato dell’algoritmo tale da indurre un errore che non si sarebbe verificato in assenza del sistema, è stato riscontrato in circa il 7% dei casi nella sua forma più rigorosa. Parallelamente, è stata osservata anche la dinamica opposta del <em>conservatism bias</em>, consistente nel rigetto di raccomandazioni corrette fornite dall’IA a favore di valutazioni iniziali umane errate, fenomeno che ha interessato circa il 10% delle interazioni<a href="#_ftn85" name="_ftnref85">[85]</a>.</p>
<p style="text-align: justify;">Questi risultati sono la prova che non basta sviluppare tecnologie sempre più sofisticate per migliorare la decisione, bensì ciò che è realmente necessario è affiancare un ripensamento della relazione uomo-macchina che consenta di evitare esperienze tanto di adesione cieca quant’anche di rifiuto irrazionale. In ragione di ciò, l’uso di questi sistemi non dovrà più essere inteso nei termini tradizionali di mero “uso” dello strumento, ma come “affidamento” (r<em>eliance</em>) calibrato e appropriato di uno strumento descrittivo e riflessivo, capace di stimolare il professionista a riconsiderare il proprio giudizio.</p>
<p style="text-align: justify;">In questa direzione, alcuni autori<a href="#_ftn86" name="_ftnref86">[86]</a> hanno sottolineato la necessità di concepire l’IA non come un “terzo sistema cognitivo”, ma come parte integrante dell’ambiente umano, che inevitabilmente condiziona le scelte; e, pertanto, non come oggetto di isolato studio rispetto al suo utilizzatore. In questo senso, l’IA non è un oracolo da seguire, ma è un “partner critico” (<em>critical mirror</em>) che aiuta a ridurre gli errori, consentendo la verifica di soluzioni alternative. A tal fine, è possibile ipotizzare alcune strategie di <em>debiasing, </em>ovverosia volte a superare questo pregiudizio cognitivo. Tra queste: la scelta di mantenere l’utilizzo dell’IA come opzione facoltativa e non vincolante, oppure, l’imposizione di plurimi output piuttosto che un’unica soluzione, o ancora, l’utilizzazione, per l’addestramento del software, non solo delle posizioni della giurisprudenza ma anche della dottrina<a href="#_ftn87" name="_ftnref87">[87]</a>. Queste strategie sarebbero funzionali ad una riflessione critica, che consenta all’IA di divenire da fattore di irrigidimento (così come evidenziato nel primo capitolo in merito ai limiti della giustizia predittiva) a strumento di stimolo per l’evoluzione interpretativa e ordinamentale.</p>
<p style="text-align: justify;">Infine, una significativa forma di tutela ulteriore è la dimensione collegiale della decisione giurisdizionale<a href="#_ftn88" name="_ftnref88">[88]</a>. La presenza di più soggetti fisici nella formazione della volontà giudiziale favorisce una discussione critica sugli esiti suggeriti dall’IA, riducendo sensibilmente il rischio di un affidamento eccessivo alla macchina e rafforzando la responsabilità umana della decisione. In tal senso, la collegialità si configura non solo come garanzia processuale tradizionale, ma anche come presidio moderno contro le distorsioni cognitive indotte dall’interazione uomo–algoritmo.</p>
<p style="text-align: justify;">Chiaramente, la formazione, come la creazione di sistemi più affidabili, richiede ingenti investimenti, che nella realtà del nostro Paese risultano ancora piuttosto limitati (salvo quanto garantito dal PNRR). La carenza di investimenti è stata evidenziata anche dal presidente emerito del Consiglio di Stato, Alessandro Pajno<a href="#_ftn89" name="_ftnref89">[89]</a>. In particolare, ricordando quanto affermato &#8211; ad un incontro a Roma sullo sviluppo tecnologico- dall’ex consigliere per lo sviluppo tecnologico del Dipartimento di Stato degli Stati Uniti d’America, Alec Ross, nel 2023, nel mondo sono stati investiti 130.000 miliardi di dollari in IA, di cui 100.000 solo da Stati Uniti e Cina. In tale circostanza, egli ha affermato che: “<em>Voi europei siete molto contenti di regolare, e questo è importante, perché la regolazione è importante, però bisogna anche sapere che cosa regolare. Se in qualche modo lo sviluppo tecnologico non va avanti, si rischia di regolare una cosa che è diversa da quella che corrisponde alla realtà attuale</em>”<a href="#_ftn90" name="_ftnref90">[90]</a>.</p>
<ol style="text-align: justify;" start="11">
<li> <em>Conclusioni</em></li>
</ol>
<p style="text-align: justify;">Oggi non si tratta più di chiedersi se e come l’IA trasformerà il nostro ordinamento, bensì di constatare che tale trasformazione è già in atto. Una gestione accorta di questa rivoluzione dipenderà dall’alfabetizzazione digitale dei soggetti chiamati a normare, giudicare e applicare tecnologie di IA. Solo stante questa premessa sarà possibile &#8211; non solo a livello giurisprudenziale, ma anche normativo – rinnovare e adattare le categorie giuridiche tradizionali, mantenendo salda la base dello Stato di diritto.</p>
<p style="text-align: justify;">Per quanto concerne l’utilizzo di sistemi di IA in ambito processuale, questi possono essere utilizzati dai giudici amministrativi solo come strumento ausiliario, nell’analisi e gestione di un’ampia mole di dati, nell’analisi e ricerca di precedenti, anche grazie allo strumento della giustizia predittiva. Di contro, rivolgersi a forme di “giustizia robotica”, in cui vi è una completa sostituzione dell’organo giudicante con una tecnologia intelligente, è, allo stato attuale, incompatibile con il principio personalista e con la tutela dei diritti fondamentali. L’IA potrà dunque stimolare la riflessione critica del giudice, ma non sostituirla, portando ad un “giudizio a umanità aumentata”.</p>
<p style="text-align: justify;">Sul piano normativo, l’AI Act costituisce un primo passo fondamentale, ma la sua portata generale &#8211; idonea a uniformare gli indirizzi degli Stati membri dell’UE &#8211; rischia di non essere sufficiente a regolare le specificità del contesto italiano, che richiede un approccio locale e particolareggiato<em>. </em>Nonostante l&#8217;adozione della legge delega del 23 settembre 2025 n.132 ,“<em>Disposizioni e deleghe al Governo in materia di Intelligenza Artificiale</em>”, rappresenti un passo importante verso la regolamentazione dell&#8217;Intelligenza Artificiale nel nostro ordinamento, la stessa, si limita a fissare principi generali e astratti privi di carattere operativo (peraltro, non perfettamente allineati con quanto previsto dall’AI Act), rimandando l&#8217;effettiva attuazione a una serie di decreti legislativi che il Governo è chiamato ad emanare. Parallelamente, le iniziative del Consiglio Superiore della Magistratura e del Ministero della Giustizia mostrano come la sfida non sia quella di “automatizzare la decisione”, ma di governare consapevolmente l’interazione tra giudice e tecnologia.</p>
<p style="text-align: justify;">In questo scenario di omissioni e lacune – colmato da atti di <em>soft law</em> o di legislazione secondaria &#8211; nessun operatore del diritto può permettersi di restare spettatore, ma dovrà approcciare questi sistemi di IA con consapevolezza critica. Viene richiesto un adattamento culturale profondo, che porti a superare la visione di certezza dell’output (propria degli algoritmi “tradizionali”), verso l’inevitabilità del rischio di errore, propria dei sistemi di IA che adottano logiche probabilistiche.  In quest’ottica la centralità della componente dello human-in-the-loop non è solo un presidio etico, ma una necessità funzionale per limitare le fallacie della macchina e, in caso, operare le necessarie correzioni.</p>
<p style="text-align: justify;">In definitiva: se l’Intelligenza Artificiale promette un futuro di efficienza, sarà solo il rispetto dei principi di trasparenza, non esclusività e non discriminazione, a garantirci che sia anche un futuro di giustizia; il tutto applicato da utilizzatori con un’adeguata alfabetizzazione sul tema.</p>
<p>&nbsp;</p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a>  Il presente saggio approfondisce riflessioni presentate nel corso del seminario “Processo amministrativo, controllo della discrezionalità e intelligenza artificiale in una prospettiva comparata” tenutosi presso l&#8217;Università di Brescia, Dipartimento di Giurisprudenza (DIGI), in data 23 ottobre 2025, introdotto e coordinato dalla Prof.ssa Vera Parisio.</p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a> N. Lipari (2024, 30 aprile) Il diritto del nuovo millennio tra giurisdizionalizzazione ed algoritmo, in Accademia, 2024, p. 9 ss., da <a href="https://accademiaassociazionecivilisti.it/il-diritto-del-nuovo-millennio-tra-giurisdizionalizzazione-e-algoritmi/">https://accademiaassociazionecivilisti.it/il-diritto-del-nuovo-millennio-tra-giurisdizionalizzazione-e-algoritmi/</a>; Cons. il recente intervento di Papa Leone XIV a favore di “un nuovo umanesimo nell’era digitale”, in Corriere della sera, 8 novembre 2025.</p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a> G. Sartor (2017). <em>Informatica giuridica e le tecnologie dell’informazione </em>(4ª ed.) Torino: Giappichelli.</p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> Il dato non è solo un prodotto, ma anche una materia prima, un capitale e un mezzo di potere, in continua crescita. Tale evoluzione è stata stimata nel 2025 in circa 181 zettabyte di dati a livello globale, sul punto F. Duarte (2025, 24 aprile). <em>Amount of data created daily. </em>Exploding Topics Blog, da <a href="https://explodingtopics.com/blog/data-generated-per-day">https://explodingtopics.com/blog/data-generated-per-day</a>  (ultima consultazione: 28.01.2026).</p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a> G. Gardini, M. De Donno, A. Ricci (2023, dicembre). <em>Nuove tecnologie per nuove amministrazioni</em>, Giappichelli, Torino, da <a href="https://www.giappichelli.it/nuove-tecnologie-per-nuove-amministrazioni-9791221116182">https://www.giappichelli.it/nuove-tecnologie-per-nuove-amministrazioni-9791221116182</a></p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a> Il riuso consiste nella possibilità, per le amministrazioni pubbliche, di condividere e riutilizzare applicativi e strumenti informatici già sviluppati da altri enti. Tali strumenti vengono dunque condivisi tra le PA per il tramite di portali &#8211; come <em>Developers Italia </em>&#8211; al posto di doverli sviluppare da soli o acquistarli da fornitori esterni. Cfr. M. Palma (2022, 19 dicembre). <em>Gli algoritmi dell’amministrazione pubblica e l’amministrazione pubblica degli algoritmi. </em>Rivista italiana di informatica e diritto, 4(2), 39–53, da <a href="https://doi.org/10.32091/RIID0090">https://doi.org/10.32091/RIID0090</a></p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a> Sul tema del trattamento del dato sanitario, nonché dell’impatto dell’evoluzione tecnologica sui servizi sanitari, in conformità al GDPR e all’AI Act cfr. G. Fares (2025, novembre) <em>Amministrare i dati sensibili nello spazio digitale europeo. Interessi protetti e tecniche di bilanciamento. </em>Sentieri giuridici, da <a href="https://editorialescientifica.it/prodotto/amministrare-i-dati-sensibili-nello-spazio-digitale-europeo/">https://editorialescientifica.it/prodotto/amministrare-i-dati-sensibili-nello-spazio-digitale-europeo/</a></p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a> Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio (2016). <em>Relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati</em> <em>e che abroga la direttiva 95/46/CE (General Data Protection Regulation).</em> Gazzetta Ufficiale dell’Unione Europea, da  <a href="https://op.europa.eu/en/publication-detail/-/publication/3e485e15-11bd-11e6-ba9a-01aa75ed71a1/language-it">https://op.europa.eu/en/publication-detail/-/publication/3e485e15-11bd-11e6-ba9a-01aa75ed71a1/language-it</a></p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a> L’articolo 22 GDPR prevede il diritto dell’interessato a non essere sottoposto a decisioni fondate esclusivamente su trattamenti automatizzati, salvo le ipotesi di cui al par. 2, e impone, in ogni caso, l’adozione di garanzie adeguate, tra cui l’intervento umano, la possibilità di esprimere la propria opinione e di contestare la decisione, configurando un limite all’automazione decisionale e un presidio a tutela dei diritti fondamentali nel contesto dell’utilizzo di sistemi algoritmici. Cfr. G. Comandé, &amp; G. Malgieri (2017, 20 dicembre). <em>Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation</em>. International Data Privacy Law, 7(2), 243–267, da <a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3088976">https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3088976</a></p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a> Parere congiunto n. 2/2026 sulla proposta di regolamento recante semplificazione del quadro normativo digitale (Digital Omnibus) (2026, 10 febbraio), European Data Protection Board – European Data Protection Supervisor, da <a href="https://www.edpb.europa.eu/our-work-tools/our-documents/edpbedps-joint-opinion/edpb-edps-joint-opinion-22026-proposal_en">https://www.edpb.europa.eu/our-work-tools/our-documents/edpbedps-joint-opinion/edpb-edps-joint-opinion-22026-proposal_en</a></p>
<p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a> La nascita della rilevanza definitoria dell’intelligenza artificiale viene solitamente ricondotta ad una celebre conferenza tenutasi nel 1956 a Dartmouth (New Hampshire, USA), conosciuta come “<em>Dartmouth Summer Research Project on Artificial Intelligence”</em>,che riunì per un mese alcuni tra i principali esperti della materia. Lo scopo dichiarato della riunione era studiare ogni aspetto dell’apprendimento e dell’intelligenza umana che potesse essere descritto con una precisione tale da poter costruire macchine in grado di simularli. <em>cfr. </em>J. McCarthy, M. Minsky, N. Rochester, &amp; C. E. Shannon (2006). <em>A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955</em>. Op. cit. in AI Magazine, 27(4), 12-14, da <a href="https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/1904">https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/1904</a>.</p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a><strong> F. Pungitore </strong>(s.d.). <em>La teoria delle intelligenze multiple di Howard Gardner</em>. Essere &amp; Pensiero. Da <a href="https://www.esserepensiero.it/argomenti/filosofia/la-teoria-delle-intelligenze-multiple-di-howard-gardner/?utm_source=chatgpt.com">https://www.esserepensiero.it/argomenti/filosofia/la-teoria-delle-intelligenze-multiple-di-howard-gardner/</a>(ultima consultazione: 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> La prima realizzazione di un neurone artificiale risale allo studioso McCulloch nel 194327, e a partire da quel momento sono stati creati sistemi sempre più complessi, costituiti da molteplici livelli di connessioni di neuroni, ove l’output di alcuni neuroni diventa l’input di altri e così via. Sul punto, A. D. Signorelli, (2017, 15 novembre). <em>Le origini dell’Intelligenza Artificiale</em>. Il Tascabile. da <a href="https://www.iltascabile.com/scienze/origini-intelligenza-artificiale/">https://www.iltascabile.com/scienze/origini-intelligenza-artificiale/</a>  (ultima consultazione: 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> G. Carullo (2021). <em>Decisione amministrativa e intelligenza artificiale. Diritto dell’informazione e dell’informatica</em>, (3), 431–461</p>
<p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> G. Sartor (2017). <em>Informatica giuridica e le tecnologie dell’informazione</em> (4ª ed.). Torino: Giappichelli.</p>
<p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> Sul tema delle origini della computazione e della distinzione tra calcolo meccanico e intelligenza logica, si veda la rappresentazione cinematografica delle intuizioni di Alan Turing in <em>The Imitation Game</em> (M. Tyldum, 2014). È proprio dal celebre articolo di Turing del 1950, <em>Computing Machinery and Intelligence</em>, che trae origine il cosiddetto &#8220;gioco dell&#8217;imitazione&#8221; (oggi noto come Test di Turing), volto a indagare la capacità di una macchina di esibire un comportamento intelligente indistinguibile da quello umano.</p>
<p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> Altri sistemi, con altre applicazioni, come XCON (configurazione computer DEC, anni ’80) hanno raggiunto l’elaborazione oltre 10.000 regole.</p>
<p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> Commissione europea per l’efficienza della giustizia (CEPEJ). (2018, 3–4 dicembre). <em>Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi</em>. Consiglio d’Europa, pp. 24-25 in Appendice I, da https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-neisi/1680993348</p>
<p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> Essa è ben spiegata <a href="https://arxiv.org/ftp/arxiv/papers/2002/2002.06177.pdf">da Gary Marcus</a>, psicologo, scienziato cognitivo e autore americano, noto per le sue ricerche sull’intersezione tra psicologia cognitiva, neuroscienze e intelligenza artificiale, professore emerito di psicologia e scienze neurali alla New York University, cfr. M. T. Della Mura (2024, 31 gennaio). <em>Intelligenza artificiale neuro-simbolica: verso sistemi più simili al ragionamento umano</em>. Tech4Future, da <a href="https://tech4future.info/intelligenza-artificiale-neuro-simbolica/?utm_source=chatgpt.com">https://tech4future.info/intelligenza-artificiale-neuro-simbolica/</a></p>
<p style="text-align: justify;"><a href="#_ftnref20" name="_ftn20">[20]</a> Sul punto, ulteriori risposte tecniche e organizzative all’ istanza di spiegabilità è l’<em>explainable AI </em>e l’auditabilità.</p>
<p style="text-align: justify;"><a href="#_ftnref21" name="_ftn21">[21]</a> M. Barberis (2022). <em>Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo. </em>Milan Law Review, 3(2), pp. 1–18. ISSN 2724-3273<em>, da </em><a href="https://doi.org/10.54103/milanlawreview/19506"><em>https://doi.org/10.54103/milanlawreview/19506</em></a></p>
<p style="text-align: justify;"><a href="#_ftnref22" name="_ftn22">[22]</a> G. Carlotti (2023, 23 maggio). <em>La giustizia predittiva e le fragole con la panna </em>[Relazione presentata in occasione del convegno Intelligenza artificiale, diritti, giustizia e pubblica amministrazione, Roma]. GiustiziaAmministrativa.it. <a href="https://www.giustizia-amministrativa.it/-/carlotti-la-giustizia-predittiva-e-le-fragole-conla-panna">https://www.giustizia-amministrativa.it/-/carlotti-la-giustizia-predittiva-e-le-fragole-conla-panna</a></p>
<p style="text-align: justify;"><a href="#_ftnref23" name="_ftn23">[23]</a> Un utile ausilio potrebbe esse quella di utilizzare un sistema predittivo in un Alternative Disptre Resolution ADR. In questo caso, sarebbe proprio a partire dal possibile esito del giudizio da cui si potrebbe partire per una trattativa risolutiva della controversia.</p>
<p style="text-align: justify;"><a href="#_ftnref24" name="_ftn24">[24]</a> E. Battelli (2020, 1 gennaio). <em>Giustizia predittiva, decisione robotica e ruolo del giudice</em>. Giustizia Civile, (2), <em>281-319</em>, da <a href="https://iris.uniroma3.it/handle/11590/371728">https://iris.uniroma3.it/handle/11590/371728</a></p>
<p style="text-align: justify;"><a href="#_ftnref25" name="_ftn25">[25]</a> C. Benetazzo (2025, 12 marzo). <em>IA, giustizia e P.A.: la sfida etica ed antropologica</em>. Federalismi.it. da</p>
<p style="text-align: justify;"><a href="https://www.astrid-online.it/static/upload/bene/benetazzo_fed_8_25.pdf">https://www.astrid-online.it/static/upload/bene/benetazzo_fed_8_25.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref26" name="_ftn26">[26]</a> Sul ruolo correttivo dell’<em>equity </em>nei sistemi di common law cfr. L. Maniscalco (2024<em>). </em><em>Common Law, Equity and Statutory Interpretation in Early Modern English Law</em>. <em>Historia et Ius</em>, <em>26</em>, 1.</p>
<p style="text-align: justify;"><a href="#_ftnref27" name="_ftn27">[27]</a> M. Barberis (2022). <em>Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo</em>. Milan Law Review,</p>
<p style="text-align: justify;">3(2), pp. 1–18. ISSN 2724-3273, da <a href="https://doi.org/10.54103/milanlawreview/19506">https://doi.org/10.54103/milanlawreview/19506</a></p>
<p style="text-align: justify;"><a href="#_ftnref28" name="_ftn28">[28]</a> Nell’ordinamento italiano, come confermato dall’art. 12 delle disposizioni preliminari al codice civile, e dalla recente giurisprudenza del Consiglio di Stato[28], è necessario porre al centro della decisione la norma. In particolare, nonostante l’origine “pretoria” del diritto amministrativo, è stato più volte ribadita anche dalla recente giurisprudenza amministrativa, in particolare nella sentenza n. 217 del 2025, il Consiglio di Stato ha statuito che: “<em>l’art. 12 delle disposizioni preliminari al codice civile, quale “norma sulle norme”, sancisce in modo univoco il primato dell’interpretazione testuale sugli altri criteri ermeneutici, coerentemente con l’oggettiva evidenza che il quadro ordinamentale è costituito da proposizioni formali, i cui enunciati sono espressi in formulazioni linguistiche e il cui fine è rendere intellegibile la portata descrittiva e precettiva delle regole poste, tramite l’univocità della relazione tra il loro significante e il loro significato, garantendo, per tal via, la certezza del diritto. Ne discende che la chiarezza del testo della disposizione e l’assenza, sul piano dell’interpretazione letterale, di dubbi sulla derivante norma da essa estratta neutralizzano gli altri canoni interpretativi, i quali, invero, possono avere rilievo soltanto ove l’esegesi testuale offra un risultato ambiguo”</em></p>
<p style="text-align: justify;"><a href="#_ftnref29" name="_ftn29">[29]</a> L’esperienza statunitense rappresenta il principale laboratorio applicativo della giustizia predittiva, in particolare in ambito penale, ove strumenti di <em>risk assessment</em> sono stati utilizzati per stimare il rischio di recidiva nella fase del <em>sentencing</em>. Un esempio è il sistema COMPAS (<em>Correctional Offender Management Profiling for Alternative Sanctions</em>) addestrato su un insieme di fattori statici (quali sesso, età al momento dell’arresto, precedenti penali – i c.d. <em>historical factors</em>) e di fattori dinamici, derivanti da un’analisi criminologica (es. situazione lavorativa, dipendenza da sostanze stupefacenti o alcoliche, ecc.)Tali applicazioni hanno sollevato rilevanti criticità in ordine alla trasparenza algoritmica e alla possibile discriminazione sistemica. Nel caso <em>State v. Loomis</em> (Wisconsin Supreme Court, 2016), la Corte ha affermato che il risultato algoritmico non può costituire l’unico fondamento della decisione giudiziaria, sancendo il principio della non esclusività dell’algoritmo e della permanenza della responsabilità in capo al giudice umano.</p>
<p style="text-align: justify;"><a href="#_ftnref30" name="_ftn30">[30]</a> R. Ferrara (2019, 1 dicembre). <em>Il giudice amministrativo e gli algoritmi. Note estemporanee a margine di un recente dibattito giurisprudenziale. </em>Diritto Amministrativo, 4, 773–800</p>
<p style="text-align: justify;"><a href="#_ftnref31" name="_ftn31">[31]</a> H. Simonetti (2024). <em>Brevi note sul possibile uso dell’intelligenza artificiale nel processo amministrativo. P.A. </em>Persona e Amministrazione, 14(1), 917–934, da <a href="https://www.giustizia-amministrativa.it/en/-/158189-130">https://www.giustizia-amministrativa.it/en/-/158189-130</a>.</p>
<p style="text-align: justify;"><a href="#_ftnref32" name="_ftn32">[32]</a> D. Kahneman, O. Sibony, &amp; C. R. Sunstein (2021, 7 settembre). <em>Rumore. Un difetto del ragionamento</em></p>
<p style="text-align: justify;"><em>umano </em>(E. Gallitelli, Trad.). UTET.</p>
<p style="text-align: justify;"><a href="#_ftnref33" name="_ftn33">[33]</a> H. Simonetti (2024). <em>Brevi note sul possibile uso dell’intelligenza artificiale nel processo amministrativo. P.A. </em>Persona e Amministrazione, 14(1), 917–934,da <a href="https://www.giustizia-amministrativa.it/en/-/158189-130">https://www.giustizia-amministrativa.it/en/-/158189-130</a>; ove si richiamano sul punto le osservazioni di pensatori come Leibniz, Weber, Irti e Luciani.</p>
<p style="text-align: justify;"><a href="#_ftnref34" name="_ftn34">[34]</a> Così come evidenziato dal Presidente di sezione del Tribunale civile di Catania, Mariano Sciacca in <em>cfr. </em>G. Pascuzzi (2024, ottobre 18–19). <em>Conclusioni della Sessione III “Il giudice amministrativo e l’Intelligenza Artificiale” </em>[Contributo presentato al congresso]. Secondo Congresso nazionale dei giudici amministrativi italiani, Roma, Italia, da <a href="https://www.giustizia-amministrativa.it/documents/20142/68627514/PASCUZZI_Conclusioni_Sessione_+III_Intelligenza_artificiale_Secondo_congresso_giudici.pdf/1e02c6a0-a265-6464-c731-fce016d1bb51?t=1730277578860">https://www.giustizia-amministrativa.it/documents/20142/68627514/PASCUZZI_Conclusioni_Sessione_+III_Intelligenza_artificiale_Secondo_congresso_giudici.pdf/1e02c6a0-a265-6464-c731-fce016d1bb51?t=1730277578860</a>.</p>
<p style="text-align: justify;"><a href="#_ftnref35" name="_ftn35">[35]</a> C. Benetazzo (2025, 12 marzo). <em>IA, giustizia e P.A.: la sfida etica ed antropologica</em>. Federalismi.it. da <a href="https://www.astrid-online.it/static/upload/bene/benetazzo_fed_8_25.pdf">https://www.astrid-online.it/static/upload/bene/benetazzo_fed_8_25.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref36" name="_ftn36">[36]</a> TAR Lazio, Sez. III-bis, 14 novembre 2016, n. 12026; TAR Lazio, Sez. III-bis, 10 settembre 2018, n. 9230; TAR Abruzzo – Pescara, Sez. I, 23 giugno 2025, n. 240; TAR Lazio – Roma, Sez. II, 3 marzo 2025, n. 4546; TAR Lazio – Roma, Sez. III-bis, 16 agosto 2025, n. 15557.</p>
<p style="text-align: justify;"><a href="#_ftnref37" name="_ftn37">[37]</a> Cons. St., Sez. VI, 8 aprile 2019, n. 2270; Cons. St., 13 dicembre 2019, n. 8472; Cons. St., Sez. IV, 4 giugno 2025, n. 4857: Cons. St., Sez. VI, 6 giugno 2025, n. 4929.</p>
<p style="text-align: justify;"><a href="#_ftnref38" name="_ftn38">[38]</a> Consiglio di Stato. (2019, 13 dicembre). Sentenza n. 8472</p>
<p style="text-align: justify;"><a href="#_ftnref39" name="_ftn39">[39]</a> Sul principio di non esclusività algoritmica si confronti l’interessante la posizione di G. Gallone, secondo cui: «non risulta appagante costruire il principio in termini puramente negativi, quale mero divieto di svolgimento dell’attività amministrativa in forma totalmente automatizzata. La “non esclusività”, infatti, non dà contezza della portata positiva del principio e di come lo stesso condiziona la sostanza dell’azione amministrativa. È per evitare una lettura asfittica e restituire la giusta profondità al concetto che sembra, pertanto, preferibile impiegare l’espressione “riserva” di umanità». Cfr. G. Gallone (2023, febbraio). Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo (Cap. 3 “Il fondamento teorico-dogmatico della riserva di umanità”, pp. 71- 99). CEDAM, da <a href="https://ciadig.catedradebuengobierno.es/wp-content/uploads/2023/02/GALLONE-9788813382872.pdf">https://ciadig.catedradebuengobierno.es/wp-content/uploads/2023/02/GALLONE-9788813382872.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref40" name="_ftn40">[40]</a> Volendo citare alcuni tra i plurimi atti troviamo: l’High<em>-Level Expert Group on Artificial Intelligence</em> (AI HLEG) della Commissione Europea, la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari dalla Commissione Europea per l’efficienza della giustizia (CEPEJ), la Recommendation on the Ethics of Artificial Intelligence dell’UNESCO, la Recommendation on Artificial Intelligence dall’Organizzazione per la Cooperazione e lo Sviluppo Economico OECD.; Guidelines for the Use of AI Systems in Courts and Tribunals, dell’UNESCO.</p>
<p style="text-align: justify;"><a href="#_ftnref41" name="_ftn41">[41]</a> Regolamento (UE) 2024/1689, del Parlamento Europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull&#8217;intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#8217;intelligenza artificiale).</p>
<p style="text-align: justify;"><a href="#_ftnref42" name="_ftn42">[42]</a>Fatta salva un’estensione dell’elenco dei sistemi ad alto rischio nell’agosto 2027, nonché nell’agosto 2028, di una revisione generale del Regolamento AI, in conformità con quanto disposto dall’art. 113 del Regolamento 2024/1689.</p>
<p style="text-align: justify;"><a href="#_ftnref43" name="_ftn43">[43]</a>C. Burton, L. De Boel, Y. Padova &amp; N. Theodorakis (2024). 10 Things You Should Know About the EU Artificial Intelligence Act. Wilson Sonsini Goodrich &amp; Rosati. Da <a href="https://www.wsgr.com/a/web/qrkz1SnNzWw6nk7B3oAyDa/10-things-you-should-know-about-the-eu-artificial-intelligence-act_v2.pdf">https://www.wsgr.com/a/web/qrkz1SnNzWw6nk7B3oAyDa/10-things-you-should-know-about-the-eu-artificial-intelligence-act_v2.pdf</a></p>
<p style="text-align: justify;"> (ultima consultazione: 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref44" name="_ftn44">[44]</a> L’art.6 AI Act individua i sistemi considerati ad alto rischio, rinviando nel suo paragrafo 2 all’allegato III dell’AI Act per l’individuazione di ulteriori sistemi così classificati.</p>
<p style="text-align: justify;"><a href="#_ftnref45" name="_ftn45">[45]</a> punto 8 dell’allegato III dell’AI Act</p>
<p style="text-align: justify;"><a href="#_ftnref46" name="_ftn46">[46]</a> Guidelines for the Use of AI Systems in Courts and Tribunals (2025, 3 dicembre), UNESCO – United Nations Educational, Scientific and Cultural Organization, da <a href="https://unesdoc.unesco.org/ark:/48223/pf0000396582">https://unesdoc.unesco.org/ark:/48223/pf0000396582</a></p>
<p style="text-align: justify;"> (ultima consultazione: 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref47" name="_ftn47">[47]</a> Il considerando 53, in principio, riporta quanto segue: «<em>È altresì importante chiarire che possono esservi casi specifici in cui i sistemi di IA riferiti a settori predefiniti indicati nel presente regolamento non comportano un rischio significativo di pregiudicare gli interessi giuridici tutelati nell&#8217;ambito di tali settori in quanto non influenzano materialmente il processo decisionale né pregiudicano tali interessi in modo sostanziale. Ai fini del presente regolamento, un sistema di IA che non influenza materialmente l&#8217;esito del processo decisionale dovrebbe essere inteso come un sistema di IA che non ha un impatto sulla sostanza, e quindi sull&#8217;esito, del processo decisionale, sia esso umano o automatizzato…».</em></p>
<p style="text-align: justify;"><a href="#_ftnref48" name="_ftn48">[48]</a> G. Lo Sapio (2025, 3 febbraio). L’intelligenza artificiale generativa nella giustizia amministrativa: scenari, rischi e opportunità. Giustizia-Amministrativa.it, da <a href="https://www.giustiziaamministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf">https://www.giustiziaamministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref49" name="_ftn49">[49]</a> C. Galletti (2024, 26 ottobre). <em>Sistema 0, l&#8217;intelligenza artificiale sta già cambiando il cervello umano: cosa ha scoperto una ricerca italiana</em>. Corriere della Sera, da <a href="https://www.corriere.it/tecnologia/24_ottobre_26/sistema-0-l-intelligenza-artificiale-sta-gia-cambiando-ilcervello-umano-cosa-ha-scoperto-una-ricerca-italiana-dcb525d8-7b4e-42f6-8ed2-6d9f4f1a5xlk.shtml">https://www.corriere.it/tecnologia/24_ottobre_26/sistema-0-l-intelligenza-artificiale-sta-gia-cambiando-ilcervello-umano-cosa-ha-scoperto-una-ricerca-italiana-dcb525d8-7b4e-42f6-8ed2- In materia, appare particolarmente significativa la lettura proposta da un gruppo di ricerca multidisciplinare dell’Università Cattolica del Sacro Cuore, che interpreta questa relazione come un cambio di paradigma, una rivoluzione mentale, che modifica il modo in cui l’utente stesso pensa e ragiona.6d9f4f1a5xlk.shtml</a> . La ricerca è stata anticipata da alcune riflessioni di uno dei coordinatori del team. <em>Cfr. </em>M. Chiriatti (2021, ottobre). Incoscienza artificiale. Come fanno le macchine a prevedere per noi. Luiss University Press, da <a href="https://luissuniversitypress.it/pubblicazioni/incoscienza-artificiale-libro-chiriatti-luiss-university-press/">https://luissuniversitypress.it/pubblicazioni/incoscienza-artificiale-libro-chiriatti-luiss-university-press/</a></p>
<p style="text-align: justify;"><a href="#_ftnref50" name="_ftn50">[50]</a> Il concetto di estensione cognitiva (<em>extended cognition</em>) è stato sviluppato dai filosofi Andy Clark e David Chalmers, nel saggio <em>The Extended Mind </em>(1998). Secondo questa teoria, la mente non è confinata al cervello o al corpo, ma può estendersi in strumenti, ambienti e dispositivi esterni che svolgono funzioni cognitive. Un classico esempio è l’uso di un taccuino come memoria esterna: se l’informazione è costantemente accessibile e utilizzata per agire nel mondo, essa diventa parte integrante del processo cognitivo stesso. Un esempio moderno è proprio l’IA. <em>Cfr</em>. A. Clark, &amp; D. Chalmers (1998, gennaio). <em>The extended mind. </em>Analysis, 58(1), 7–19, da <a href="https://doi.org/10.1093/analys/58.1.7">https://doi.org/10.1093/analys/58.1.7</a></p>
<p style="text-align: justify;"><a href="#_ftnref51" name="_ftn51">[51]</a> Draft Guidelines on the use of generative artificial intelligence for courts (2025, 5 dicembre), Commissione europea per l’efficienza della giustizia (CEPEJ) – Consiglio d’Europa, da <a href="https://www.coe.int/cepej-ai-guidelines-draft">https://www.coe.int/cepej-ai-guidelines-draft</a></p>
<p style="text-align: justify;"><a href="#_ftnref52" name="_ftn52">[52]</a> Per un approfondimento efficace <em>cfr. </em>E. Carloni (2019). <em>Algoritmi su carta. Politiche di digitalizzazione e trasformazione digitale delle amministrazioni. </em>Diritto pubblico, 25(2), 431–468. ISSN 1721-8985, da</p>
<p style="text-align: justify;"><a href="https://www.rivisteweb.it/doi/10.1438/94607">https://www.rivisteweb.it/doi/10.1438/94607</a></p>
<p style="text-align: justify;"><a href="#_ftnref53" name="_ftn53">[53]</a> Così efficacemente cfr. F. Caio (2014). <em>Lo Stato del digitale: Come l’Italia può recuperare il tempo perduto </em>(p. 7). Padova: Mursia.</p>
<p style="text-align: justify;"><a href="#_ftnref54" name="_ftn54">[54]</a> Pubblicato sulla gazzetta Ufficiale della Repubblica Italiana il 25/09/2025 ed entrato in vigore il 10/10/2025, da <a href="https://www.gazzettaufficiale.it/eli/id/2025/09/25/25G00143/sg#:~:text=LEGGE%2023%20settembre%202025%2C%20n,132">https://www.gazzettaufficiale.it/eli/id/2025/09/25/25G00143/sg#:~:text=LEGGE%2023%20settembre%202025%2C%20n,132</a></p>
<p style="text-align: justify;"><a href="#_ftnref55" name="_ftn55">[55]</a> La Commissione europea nel parere circostanziato (C(2024) 7814) richiedeva: (i) un maggior allineamento all’AI Act (ad esempio con riguardo alle definizioni); (ii) un sostanziale divieto di creare nuove e ulteriori restrizioni all’applicazione dei sistemi di IA; (iii) di rispettare il principio di indipendenza delle Autorità di controllo del settore</p>
<p style="text-align: justify;"><a href="#_ftnref56" name="_ftn56">[56]</a> Previsto al comma 1 dell’art. 20 L. 132/2025 come Autorità nazionali per l’intelligenza artificiale: «<em>Al fine di garantire l’applicazione e l’attuazione della normativa nazionale e del l’Unione europea in materia di intelligenza artificiale, l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) sono designate quali Autorità nazionali per l’intelligenza artificiale, ferma restando l’attribuzione alla Banca d’I talia, alla CONSOB e all’IVASS del ruolo di autorità di vigilanza del mercato ai sensi e secondo quanto previsto dall’articolo 74, paragrafo 6, del regolamento (UE) 2024/ 1689…</em>».</p>
<p style="text-align: justify;"><a href="#_ftnref57" name="_ftn57">[57]</a> Nel contesto italiano non mancano esperienze di sperimentazione dell’intelligenza artificiale in ambito giudiziario, seppur limitate e rigorosamente circoscritte a funzioni di supporto. Tra i progetti pilota troviamo quello avviati ai Tribunali di Genova e Pisa, nonché la Corte d’Appello di Brescia (in collaborazione con l’Università di Brescia hanno sviluppato un sistema che aiuta a prevedere tempi e esiti delle cause), con applicazioni orientate all’analisi dei dati processuali, alla gestione degli archivi e al supporto organizzativo.</p>
<p style="text-align: justify;"><a href="#_ftnref58" name="_ftn58">[58]</a> In particolare, centrale è l’entrata in vigore degli obblighi sanciti per i sistemi “ad alto rischio”, il 2 agosto 2026.</p>
<p style="text-align: justify;"><a href="#_ftnref59" name="_ftn59">[59]</a> Consiglio Superiore della Magistratura (2025, 8 ottobre). <em>Raccomandazioni sull’uso dell’intelligenza artificiale per l’amministrazione della giustizia</em>. Delibera plenaria del CSM, adottata per garantire un impiego responsabile e trasparente dei sistemi di IA, nel rispetto dei principi di legalità, autonomia decisionale, imparzialità e diritti fondamentali, e per delineare i criteri di utilizzo sperimentale e controllato dell’IA nella fase transitoria antecedente alla piena applicazione del Regolamento UE sull’intelligenza artificiale, da <a href="https://www.csm.it/portale/web/csm-internet/intelligenza-artificiale?utm_source=chatgpt.com">https://www.csm.it/portale/web/csm-internet/intelligenza-artificiale</a> (ultima consultazione 28/01/2026)</p>
<p style="text-align: justify;"><a href="#_ftnref60" name="_ftn60">[60]</a> <em>Ut supra.</em></p>
<p style="text-align: justify;"><a href="#_ftnref61" name="_ftn61">[61]</a> In occasione del convegno sull’Intelligenza Artificiale organizzato dalle Camere Penali Minorili il 13 febbraio 2026 è stata proposta una “scala di utilizzazioni” dei sistemi di IA nell’attività giurisidizionale, graduata in ragione dell’incidenza sul processo decisionale. In particolare, sono state ritenute ipotesi nelle quali l’ausilio del sistema potrebbe assumere una funzione quasi sostitutiva quelle caratterizzate da elevata standardizzazione, quali la liquidazione del patrocinio a spese dello Stato o il controllo formale delle relazioni degli amministratori di sostegno. Sono state invece considerate utilizzazioni eccessivamente rischiose la redazione della bozza di provvedimento e la sintesi del fascicolo, in ragione del potenziale impatto sull’esito della decisione. Cfr. Figli dell’algoritmo e nuove responsabilità. L’avvocato nell’epoca dell’intelligenza artificiale, Convegno, Brescia, 13 febbraio 2026, da <a href="https://www.camereminorili.it/evento/lavvocato-nellepoca-dellintelligenza-artificiale/">https://www.camereminorili.it/evento/lavvocato-nellepoca-dellintelligenza-artificiale/</a></p>
<p style="text-align: justify;"><a href="#_ftnref62" name="_ftn62">[62]</a> <em>Ut supra.</em></p>
<p style="text-align: justify;"><a href="#_ftnref63" name="_ftn63">[63]</a> <em>Ut supra.</em></p>
<p style="text-align: justify;"><a href="#_ftnref64" name="_ftn64">[64]</a> Progetto della Corte d’Appello di Milano, sviluppato nell’ambito del Progetto <em>DataLake Giustizia</em> dal Consorzio Interuniversitario CINI, con la collaborazione del Politecnico di Milano. L’iniziativa si colloca al di fuori delle logiche della c.d. giustizia predittiva, configurandosi piuttosto come uno strumento di supporto al lavoro del giudice, in particolare nella fase preparatoria dei procedimenti civili di appello. L’obiettivo è quello di assistere il giudice relatore nella ricerca, organizzazione e analisi della documentazione rilevante al fine di agevolare la redazione della relazione da discutere in camera di consiglio e, successivamente, della decisione. L’esperienza milanese si presenta, dunque, come un esempio di utilizzo “prudente” e funzionale dell’IA, orientato all’efficienza organizzativa e alla coerenza giurisprudenziale, nel rispetto delle garanzie proprie dell’attività giurisdizionale</p>
<p style="text-align: justify;"><a href="#_ftnref65" name="_ftn65">[65]</a> Giustizia penale, scienza e intelligenza artificiale: la Carta dei Valori dell’Unione delle Camere Penali Italiane (2025, 17 gennaio), Unione delle Camere Penali Italiane, da <a href="https://www.camerepenali.it/public/file/Oss_Scienza_Processo_IA/UCPI_Carta-dei-valori_IA.pdf">https://www.camerepenali.it/public/file/Oss_Scienza_Processo_IA/UCPI_Carta-dei-valori_IA.pdf</a> (ultima consultazione: 28.01.2026). La Carta dei Valoro espone una serie di principi volti a garantire che l’impiego di strumenti automatizzati non comprometta la trasparenza, la verificabilità e l’equità del processo decisionale, divenendo una bussola di riferimento etico e metodologico per gli operatori del diritto.</p>
<p style="text-align: justify;"><a href="#_ftnref66" name="_ftn66">[66]</a> L’Ordine degli Avvocati di Milano oltre a realizzare un primo tentativo in Italia di un quadro deontologico di riferimento per l’impiego dell’IA nella professione forense (da aggiornare periodicamente anche grazie all’attività del Tavolo permanente), ha istituito un Osservatorio permanente volto alla mappatura e al monitoraggio delle soluzioni tecnologiche applicate al sistema giustizia. Inoltre, potranno dare il proprio contributo all’iniziativa, compilando un apposita “Scheda di Adesione”, gli avvocati che vorranno fornire informazioni sulla propria azienda, sulle soluzioni offerte e sulle eventuali collaborazioni attive con il mondo legale. Cfr. Carta dei Principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense, progetto HOROS (2024, dicembre) Ordine degli Avvocati di Milano, da <a href="https://www.ordineavvocatimilano.it/it/mappatura-delle-soluzioni-di-intelligenza-artificiale-horos-e-losservatorio-ai-dellordine-degli-avvocati-di-milano/p719">https://www.ordineavvocatimilano.it/it/mappatura-delle-soluzioni-di-intelligenza-artificiale-horos-e-losservatorio-ai-dellordine-degli-avvocati-di-milano/p719</a> (ultima consultazione: 25.03.2026).</p>
<p style="text-align: justify;"><a href="#_ftnref67" name="_ftn67">[67]</a> Documento programmatico con cui il Ministro della Giustizia definisce le priorità politiche e strategiche dell’Amministrazione giudiziaria per l’anno 2026, pubblicato a firma del Ministro della giustizia Carlo Nordio il 29 dicembre 2025</p>
<p style="text-align: justify;"><a href="#_ftnref68" name="_ftn68">[68]</a> Copilot è una famiglia di strumenti di intelligenza artificiale generativa sviluppata da Microsoft e integrata nei propri ambienti software, basata su <em>large language models.</em></p>
<p style="text-align: justify;"><a href="#_ftnref69" name="_ftn69">[69]</a> C. Morelli (2025, 20 ottobre). <em>Ufficio del Processo: 1000 licenze Copilot a supporto</em>. Altalex Wolters Kluwer Italia, da <a href="https://www.altalex.com/documents/news/2025/10/20/ufficio-processo-mille-licenze-copilot-supporto">https://www.altalex.com/documents/news/2025/10/20/ufficio-processo-mille-licenze-copilot-supporto</a> (ultima consultazione: 28.01.2026).</p>
<p style="text-align: justify;"><a href="#_ftnref70" name="_ftn70">[70]</a> Sul punto, è stato organizzato per i magistrati dal Ministero della Giustizia, Dipartimento per l’innovazione tecnologica della giustizia, il 26 gennaio 2026 un webinar per la presentazione del progetto al fine di illustrare esempi concreti di utilizzo e prompt affidabili.</p>
<p style="text-align: justify;"><a href="#_ftnref71" name="_ftn71">[71]</a> <em>Ut supra</em></p>
<p style="text-align: justify;"><a href="#_ftnref72" name="_ftn72">[72]</a> Segretariato Generale della Giustizia Amministrativa. (2024, 4 ottobre). <em>Intelligenza artificiale e Giustizia amministrativa: strategie di impiego, metodologie e sicurezza. </em>Consiglio di Stato, da <a href="https://www.giustizia-amministrativa.it/documents/20142/54520508/IA%2Bper%2BGA%2BReport%2BSito%2BGA%2B2024.pdf/dbd4b9ab-10cd-f2d9-0e97-637827f58cab?t=1728042100868">https://www.giustizia-amministrativa.it/documents/20142/54520508/IA%2Bper%2BGA%2BReport%2BSito%2BGA%2B2024.pdf/dbd4b9ab-10cd-f2d9-0e97-637827f58cab?t=1728042100868</a></p>
<p style="text-align: justify;"><a href="#_ftnref73" name="_ftn73">[73]</a> G. Pascuzzi (2024, ottobre 18–19). <em>Conclusioni della Sessione III “Il giudice amministrativo e l’Intelligenza Artificiale” </em>[Contributo presentato al congresso]. Secondo Congresso nazionale dei giudici amministrativi italiani, Roma, Italia, da <a href="https://www.giustizia-amministrativa.it/documents/20142/68627514/PASCUZZI_Conclusioni_Sessione_+III_Intelligenza_artificiale_Secondo_congresso_giudici.pdf/1e02c6a0-a265-6464-c731-fce016d1bb51?t=1730277578860">https://www.giustizia-amministrativa.it/documents/20142/68627514/PASCUZZI_Conclusioni_Sessione_+III_Intelligenza_artificiale_Secondo_congresso_giudici.pdf/1e02c6a0-a265-6464-c731-fce016d1bb51?t=1730277578860</a></p>
<p style="text-align: justify;"><a href="#_ftnref74" name="_ftn74">[74]</a> In particolare, già a partire dal 2020, infatti, la Giustizia amministrativa ha adottato sistemi avanzati di cybersecurity basati sull’intelligenza artificiale, al fine di preservare il proprio patrimonio informativo da incidenti informatici. Questo dato è tutt’altro che marginale, poiché dimostra come l’IA sia stata già impiegata nel settore amministrativo in ambiti chiaramente estranei alla funzione decisoria in senso stretto, rafforzando la sicurezza e l’affidabilità dell’infrastruttura giudiziaria. Altra centrale sperimentazione attiva è la piattaforma di intelligenza artificiale ebusiness intelligence della Giustizia amministrativa.</p>
<p style="text-align: justify;"><a href="#_ftnref75" name="_ftn75">[75]</a> Il Sistema Informativo della Giustizia Amministrativa (SIGA), istituito nel 2001 in conformità con il progressivo processo di digitalizzazione, costituisce ad oggi la piattaforma tecnologica che gestisce, più in generale, l’intera infrastruttura digitale della giustizia amministrativa italiana, e nello specifico del PAT. La piattaforma, nel 2023, è stata oggetto di un significativo processo di aggiornamento e migrazione verso soluzioni di archiviazione in <em>cloud computing</em>, che sono particolarmente efficienti ed efficaci anche in termini di spesa.</p>
<p style="text-align: justify;"><a href="#_ftnref76" name="_ftn76">[76]</a> Piano Integrato di Attività e Organizzazione (PIAO) 2025–2027 (2025), Segretariato Generale della Giustizia Amministrativa, da <a href="https://www.giustizia-amministrativa.it/en/-/152174-443">https://www.giustizia-amministrativa.it/en/-/152174-443</a></p>
<p style="text-align: justify;"><a href="#_ftnref77" name="_ftn77">[77]</a> A. D. Selbst., &amp; S. Barocas (2018). <em>The intuitive appeal of explainable machines. </em>Fordham Law Review, 87(3), 1085–1139, da <a href="https://ir.lawnet.fordham.edu/flr/vol87/iss3/11">https://ir.lawnet.fordham.edu/flr/vol87/iss3/11</a></p>
<p style="text-align: justify;"><a href="#_ftnref78" name="_ftn78">[78]</a> E. Günther, B. Szabados, R. Bhattacharjee, S. Bordt, &amp; U. von Luxburg (2025, 18 agosto). Informative post-hoc explanations only exist for simple functions (arXiv:2508.11441). arXiv. Da <a href="https://arxiv.org/pdf/2508.11441">https://arxiv.org/pdf/2508.11441</a></p>
<p style="text-align: justify;"><a href="#_ftnref79" name="_ftn79">[79]</a> Al fine di soddisfare il requisito della spiegabilità del sistema, viene favorita la progettazione di modelli di Auditable AI, ossia di algoritmi concepiti a monte per essere sottoposti a test e verifiche esterne senza pregiudicare il segreto industriale. Sul tema, un’interessante iniziativa spagnola è l’“Algorithmic Transparency Certificate”, un centro di certificazione privato, che attesta la conformità dei sistemi ai principi di trasparenza, sicurezza e responsabilità algoritmica, al fine ultimo di rafforzare la fiducia pubblica creando un ambiente di accountability. Cfr. Adigital. (s.d.). <em>Certificato di Trasparenza Algoritmica</em>, da <a href="https://www.transparenciaalgoritmica.es/">https://www.transparenciaalgoritmica.es/</a></p>
<p style="text-align: justify;"><a href="#_ftnref80" name="_ftn80">[80]</a> Sul tema delle competenze tecniche, manageriali, giuridiche ed etiche necessarie per l’adozione dell’IA nel settore giudiziario, v. G. Vecchi, <em>Intelligenza artificiale e miglioramento di alcune attività del giudice</em>, cit., parr. 4 e 4.1–4.3</p>
<p style="text-align: justify;"><a href="#_ftnref81" name="_ftn81">[81]</a> A. Simoncini (2019). <em>L’algoritmo incostituzionale; intelligenza artificiale e il futuro delle libertà. </em>BioLaw Journal – Rivista di BioDiritto, 1, 81, da https://doi.org/10.15168/2284-4503-352. Ciò in quanto «<em>una volta introdotto un sistema automatico di decisione all’interno di un processo decisionale umano, il sistema automatico tende, nel tempo, a catturare la decisione stessa” e questo “non per ragioni di valore scientifico, di accuratezza predittiva o di affidabilità tecnica dell’automatismo, ma eminentemente per ragioni di convenienza pratica»</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref82" name="_ftn82">[82]</a> G. Lo Sapio (2025, 3 febbraio). <em>L’intelligenza artificiale generativa nella giustizia amministrativa: scenari, rischi e opportunità. </em>Giustizia-Amministrativa.it, da <a href="https://www.giustiziaamministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf">https://www.giustiziaamministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf</a> <em>   </em></p>
<p style="text-align: justify;"><a href="#_ftnref83" name="_ftn83">[83]</a>  Sulla definizione dei parametri di produttività, si veda la Delibera del Plenum del CSM del 25 ottobre 2023 relativa alla <em>Determinazione dei Carichi Esigibili Nazionali</em> per il settore civile, volta a uniformare i rendimenti degli uffici giudiziari in linea con gli obiettivi di abbattimento dell&#8217;arretrato previsti dal PNRR. <em>Cfr</em>. S. Occhipinti (2023, 13 novembre). Carichi esigibili nel settore civile: il CSM fissa gli obiettivi per il 2024. Altalex Wolters Kluwer Italia, da <a href="https://www.altalex.com/documents/news/2023/11/14/carichi-esigibili-civile-csm-fissa-obiettivi-2024">https://www.altalex.com/documents/news/2023/11/14/carichi-esigibili-civile-csm-fissa-obiettivi-2024</a> (ultima consultazione 14/02/2026)</p>
<p style="text-align: justify;"><a href="#_ftnref84" name="_ftn84">[84]</a> A. Grignola (2024, aprile). <em>Les biais algorithmiques dans les LLM. </em>DataBird, da <a href="https://www.databird.co/blog/biais-algorithimiques-ia">https://www.databird.co/blog/biais-algorithimiques-ia</a></p>
<p style="text-align: justify;"><a href="#_ftnref85" name="_ftn85">[85]</a> F. Cabitza, &amp; F. Parisi (2024, 13 dicembre). <em>Siamo condizionati dall’intelligenza artificiale? Il lato oscuro</em></p>
<p style="text-align: justify;"><em>del ‘Sistema 0</em>’. Il Sole 24 Ore, da <a href="https://www.ilsole24ore.com/art/siamo-condizionati-dall-intelligenzaartificiale-lato-oscuro-sistema-0-AGUumKjB">https://www.ilsole24ore.com/art/siamo-condizionati-dall-intelligenzaartificiale-lato-oscuro-sistema-0-AGUumKjB</a> (ultima consultazione 28.01.2026)</p>
<p style="text-align: justify;"><a href="#_ftnref86" name="_ftn86">[86]</a> <em>Ut supra</em>. Nell’articolo gli autori evidenziano la difficoltà di misurare sperimentalmente l’influenza dell’output dei sistemi di intelligenza artificiale sui processi decisionali umani, mettendo in guardia sul fatto che l’IA può agire come “Sistema 0”, cioè come struttura strutturante e condizionante del pensiero, capace di influenzare credenze e giudizi senza che vi sia intenzionalità manipolativa.</p>
<p style="text-align: justify;"><a href="#_ftnref87" name="_ftn87">[87]</a> In questa prospettiva, si apre il tema delle fonti da utilizzare per la costruzione dei dataset. Per quanto riguarda la giurisprudenza, una soluzione praticabile è rappresentata dall’impiego delle banche dati ufficiali delle sentenze della giustizia amministrativa; per parte di dottrina, invece, si potrebbe selezionare un corpus di riviste riconosciute per il loro valore scientifico.</p>
<p style="text-align: justify;"><a href="#_ftnref88" name="_ftn88">[88]</a>  Sull’idea di un sistema almeno a doppia verifica, cfr. G. Lo Sapio (2025, 3 febbraio). <em>L’intelligenza artificiale generativa nella giustizia amministrativa: scenari, rischi e opportunità. </em>GiustiziaAmministrativa.it, 12–13, da <a href="https://www.giustizia-amministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf">https://www.giustizia-amministrativa.it/documents/20142/74202881/AI%2Bgenerativa%2Be%2BGiustizia%2Bamministrativa%2Bgenerativa.%2B3%2Bfebbraio%2B2025-def.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref89" name="_ftn89">[89]</a> A. Pajno (2024, 8 febbraio). Discorso pronunciato presso il convegno <em>Intelligenza Artificiale nella Pubblica Amministrazione: opportunità e rischi</em>, Palazzo Pirelli, Milano, da <a href="https://www.italiastatodidiritto.it/images/_ai/A5%20INTELLIGENZA%20ARTIFICIALE%20NELLA%20PUBBLICA%20AMMINISTRAZIONE-%20OPPORTUNITA%20E%20RISCHI%20online.pdf">https://www.italiastatodidiritto.it/images/_ai/A5%20INTELLIGENZA%20ARTIFICIALE%20NELLA%20PUBBLICA%20AMMINISTRAZIONE-%20OPPORTUNITA%20E%20RISCHI%20online.pdf</a></p>
<p style="text-align: justify;"><a href="#_ftnref90" name="_ftn90">[90]</a> <em>Ut supra.</em></p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/intelligenza-artificiale-e-giustizia-amministrativa/">Intelligenza artificiale e giustizia amministrativa</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</title>
		<link>https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 27 Feb 2026 16:53:27 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=90409</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/">L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</a></p>
<p>Graziana Urbano   Sommario: 1. Le interazioni tra “intelligenza artificiale” e “Città intelligente”, sotto il prisma del principio di partecipazione – 2. Gli elementi costitutivi della Città intelligente, sotto il prisma della Costituzione: il contesto urbano &#8211; 2.1. (segue): la nuova dimensione della partecipazione “intelligente”, in chiave sussidiaria – 3.</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/">L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/">L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</a></p>
<p style="text-align: justify;"><strong>Graziana Urbano</strong></p>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;">Sommario: 1. Le interazioni tra “intelligenza artificiale” e “Città intelligente”, sotto il prisma del principio di partecipazione – 2. Gli elementi costitutivi della Città intelligente, sotto il prisma della Costituzione: il contesto urbano &#8211; 2.1. (segue): la nuova dimensione della partecipazione “intelligente”, in chiave sussidiaria – 3. La partecipazione “intelligente” al servizio della sicurezza urbana &#8211; 4. Riflessioni a margine della sicurezza urbana che si avvale della intelligenza artificiale</p>
<p style="text-align: justify;">
<p style="text-align: justify;">
<ol style="text-align: justify;">
<li><strong>Le interazioni tra “intelligenza artificiale” e “Città intelligente”, sotto il prisma del principio di partecipazione</strong></li>
</ol>
<p style="text-align: justify;">
<p style="text-align: justify;">I nuovi sistemi tecnologici e digitali di intelligenza artificiale volti alla sicurezza urbana nell’ambito della dimensione locale dei Comuni pongono all’attenzione del giurista una serie di interrogativi che abbracciano profili più tradizionali, relativi sia alla dimensione che assurge il principio di partecipazione del cittadino alla gestione dell’attività amministrativa volta alla sicurezza urbana in un contesto territoriale locale sia alla portata giuridica che assume il concetto di <em>Smart cities</em>&#8211; o, nella traduzione italiana, sebbene non letterale, di Città intelligenti- che sembra ad oggi rimodularsi, grazie proprio all’apporto concreto dell’intelligenza artificiale.</p>
<p style="text-align: justify;">La riflessione intende, in sostanza, indagare l’incidenza degli strumenti di intelligenza artificiale volti alla sicurezza urbana nell’ambito delle <em>Smart Cities, </em>cd. <em>Città intelligenti</em>, scegliendo come campo di indagine privilegiato il tenore assunto dal principio di partecipazione dei cittadini fortemente ridimensionato dall’uso proprio degli strumenti di intelligenza artificiale.</p>
<p style="text-align: justify;">            L’indagine così condotta offre, infatti, la stura per riflettere su una nuova dimensione anche del concetto di Città intelligente e della sua stretta relazione con gli strumenti di intelligenza artificiale, di cui si avvale soprattutto ai fini della sicurezza urbana, e consente di approfondire soprattutto la nuova dimensione che intessa il rapporto tra cittadino e pubblica autorità e, di riflesso, il principio di partecipazione degli amministrati, coinvolti in attività adottate dalle autorità pubbliche volte alla sicurezza urbana.</p>
<p style="text-align: justify;">La mappa concettuale della riflessione intende muoversi essenzialmente su tre direttrici di indagine strettamente collegate: 1. l’intelligenza artificiale che serve alla partecipazione; 2.che serve alla sicurezza urbana; 3. nel contesto urbano di riferimento che è quello della Città intelligente.</p>
<p style="text-align: justify;">            Partendo da quest’ultima, il concetto di Città intelligente, nella declinazione italiana del termine, ad oggi acquisisce più consapevolezza e dignità, soprattutto per le evidenti connessioni con il concetto di intelligenza artificiale: infatti, ad oggi, quando si parla di <em>Smart</em> <em>city</em> o Città intelligente non si può non tener conto dell’apporto dell’intelligenza artificiale o, in generale, dei più innovativi e avanzati strumenti digitali e tecnologi che fanno capo proprio all’intelligenza artificiale, come <em>mezzo</em> per migliorare le condizioni e la qualità della vita dei cittadini<a href="#_ftn1" name="_ftnref1">[1]</a>.</p>
<p style="text-align: justify;">L’introduzione nell’ordinamento nazionale delle <em>Smart cities</em> in Italia, infatti, si è basata essenzialmente nella diffusione della cultura del digitale negli assetti organizzativi e negli impianti procedimentali amministrativi, ossia nella promozione capillare dei sistemi informatici e di digitalizzazione all’interno delle pubbliche amministrazioni, soprattutto, nelle sue interazioni con i cittadini/utenti.</p>
<p style="text-align: justify;">Ad oggi questa cultura, per come maturata, non può non tener conto dell’applicazione dei sistemi di intelligenza artificiale.</p>
<p style="text-align: justify;">E tanto emerge anche chiaramente dal dettato della recente legge in materia di intelligenza artificiale, la legge n. 132 del 23 settembre 2025, quando, all’art. 14, dedicato all’uso della intelligenza artificiale nella pubblica amministrazione, precisa lo scopo a cui tende l’utilizzo della intelligenza artificiale da parte delle pubbliche amministrazioni, ossia, tra gli altri, ad aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese.</p>
<p style="text-align: justify;">D’altro canto, l’aggettivo “intelligente” accostato alla Città nella definizione nazionale, in comune con quello di “intelligenza” artificiale, sta proprio a confermare lo stretto legale che c’è tra i due termini della questione.</p>
<p style="text-align: justify;">Sul punto, però, nonostante manchi una definizione di Città intelligente nel panorama normativo nazionale<a href="#_ftn2" name="_ftnref2">[2]</a> e una disciplina giuridica che possa reggerne le ricadute sul piano applicativo, è condivisa l’idea che uno dei profili &#8211; se non il principale &#8211; a connotarne le caratteristiche sia il legame – basato essenzialmente su un rapporto proporzionale &#8211; tra l’esercizio del potere da parte dell’amministrazione pubblica che si avvalga e utilizzi  i sistemi telematici, digitali, di intelligenza artificiale e la partecipazione attiva dei suoi cittadini come incidente sulla qualità della vita dei cittadini, rispetto a un contesto urbano che coincide per lo più con quello dell’ente comunale, come più avanti si chiarirà.</p>
<p style="text-align: justify;">D’altra parte, una esplicazione (sebbene proveniente da una fonte non giuridica, ma di natura per lo più tecnica) della Città intelligente la descrive proprio come «quel luogo e/o contesto territoriale ove l’utilizzo pianificato e sapiente delle risorse umane e naturali, opportunamente gestite e integrate mediante le numerose tecnologie Ict già disponibili, consente la creazione di un ecosistema capace di utilizzare al meglio le risorse e di fornire servizi integrati e sempre più intelligenti»<a href="#_ftn3" name="_ftnref3">[3]</a>.</p>
<p style="text-align: justify;">In sostanza, il termine <em>Smart city</em> mette in relazione il <em>contesto urbano</em>, ossia le strutture amministrative e le infrastrutture materiali delle Città, in un ambito territoriale ben definito e delineato (per lo più coincidente con quello dell’ente comunale), con il <em>capitale umano, intellettuale e sociale</em> di chi le abita: relazione che si avvale degli strumenti telematici, informatici e digitali, e, quindi, dell’intelligenza artificiale, volti a migliorare la qualità di vita dei cittadini.</p>
<p style="text-align: justify;">Nella <em>Smart city</em>, infatti, la connettività digitale e/o telematica è considerata una fonte di crescita e di sviluppo urbano, tesa essenzialmente a promuovere l’idea di Città inclusiva, di Città partecipata, si potrebbe aggiungere in questa sede di Città sicura, dal momento che consente nuove forme di partecipazione attiva e di coesione sociale tra i cittadini, in uno spazio territoriale ben individuato.</p>
<p style="text-align: justify;">Ed è questo profilo che si intende sottolineare e sul quale ci si vuole soffermare, ossia il legame direttamente <em>proporzionale</em> che c’è tra gli strumenti digitali e telematici &#8211; più propriamente quella che ad oggi prendono il nome di intelligenza artificiale &#8211; rispetto alla qualità della vita dei cittadini in termini di sicurezza, in cui, essenzialmente l’intelligenza artificiale diviene strumento migliorativo della qualità delle condizioni di vita dei cittadini; diviene, in altri termini, strumentale alla partecipazione attiva dei cittadini, in un contesto urbano in cui lo spazio pubblico della Città viene interpretato con particolari forme di coesione, condivisione e inclusione sociale anche ai fini securitari.</p>
<p style="text-align: justify;">Proprio la stretta connessione con la partecipazione dei cittadini consente, quindi, di iniziare a inquadrare giuridicamente la “Città intelligente”: l’intelligenza artificiale diviene un mezzo, uno strumento, di cui la Città si avvale, per migliorate la partecipazione dei cittadini della comunità di riferimento che necessita, però, di essere collocata in una dimensione materiale e territoriale precisa. Pertanto, diviene rilevante ricostruire l’ambito territoriale di riferimento delle Città intelligenti.</p>
<p style="text-align: justify;">Il secondo passaggio della riflessione verte sull’applicazione del principio di partecipazione nell’ambito dell’esercizio dell’azione pubblica volta al raggiungimento del fine pubblico della sicurezza urbana nel contesto delle Città intelligenti, secondo quel connubio, suggerito da parte della dottrina, che lega la Città intelligente alla Città sicura<a href="#_ftn4" name="_ftnref4">[4]</a> e che passa anch’esso dal coinvolgimento dei cittadini nell’azione dei pubblici poteri, ai fini securitari.</p>
<p style="text-align: justify;">
<ol style="text-align: justify;" start="2">
<li><strong>Gli elementi costitutivi della Città intelligente, sotto il prisma della Costituzione: il contesto urbano</strong></li>
</ol>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;">Come anticipato, occorre, in primo luogo, individuare il contesto territoriale e fisico in cui le Città intelligenti agiscono e, in secondo luogo, delineare meglio l’essenza della partecipazione a cui si è già fatto cenno.</p>
<p style="text-align: justify;">Senza dubbio, nel gergo comune, il termine “Città” rimanda immediatamente a quello, giuridico, di “Comune”, tanto che i due termini vengono spesso utilizzati indistintamente.</p>
<p style="text-align: justify;">In realtà, al netto dell’assonanza semantica, i due concetti, pur distinti, si intrecciano tra loro<a href="#_ftn5" name="_ftnref5">[5]</a>.</p>
<p style="text-align: justify;">«La Città non è tanto un concetto di analisi quanto piuttosto una categoria della pratica sociale»<a href="#_ftn6" name="_ftnref6">[6]</a>. La Città, infatti, viene definita come «centro abitato di dimensioni demografiche non correttamente definibili a priori, comunque non troppo modeste, sede di attività economiche in assoluta prevalenza extra-agricole e soprattutto terziarie, e pertanto in grado di fornire servizi alla propria popolazione e a quella di un ambito più o meno vasto che ne costituisce il bacino d’utenza (o area d’influenza)<a href="#_ftn7" name="_ftnref7">[7]</a>.</p>
<p style="text-align: justify;">Il Comune, invece, è definito dal legislatore come l’ente locale che rappresenta la propria comunità, ne cura gli interessi e ne promuove lo sviluppo. Esso ha una propria autonomia statutaria, normativa, organizzativa e amministrativa, nonché una autonomia impositiva e finanziaria nell’ambito dei suoi statuti e regolamenti<a href="#_ftn8" name="_ftnref8">[8]</a>.</p>
<p style="text-align: justify;"> Tra i due concetti emerge, pertanto, un’assonanza rintracciabile sia nella rilevanza attribuita, in entrambe le definizioni, al concetto di “comunità” sia nella presenza dei tre elementi che tradizionalmente costituiscono il Comune. Nella definizione di Città proposta, infatti, si fa riferimento a un ambito territoriale<a href="#_ftn9" name="_ftnref9">[9]</a>, alla popolazione ivi collocata e ai profili strettamente organizzativi e finanziari che, come noto, rappresentano tradizionalmente gli elementi costitutivi del Comune.</p>
<p style="text-align: justify;">Il fondamento giuridico da cui partire rimane, però, la Costituzione italiana, in particolare gli articoli dedicati alle autonomie locali: in sostanza, l’impianto costituzionale sulle autonomie locali rappresenta il punto di partenza del processo di collocazione della Città intelligente nei binari del diritto pubblico, al fine di individuarne il contesto urbano fisico di riferimento.</p>
<p style="text-align: justify;">Il riferimento è agli articoli 114 e 118 della Costituzione che assolvono, in realtà, un duplice ruolo in questa sede: non solo sono notoriamente la base normativa del principio di partecipazione che è elemento caratterizzante le Città intelligenti, come si è in parte anticipato, ma meglio di affronterà, ma soprattutto consentono di tracciare l’ambito spaziale, il contesto territoriale in cui le Città intelligenti agiscono.</p>
<p style="text-align: justify;">In forza del dettato costituzionale di cui all’art. 114 della Costituzione, il territorio va a connotare &#8211; sebbene non definisca &#8211; anche la Città intelligente, al pari di quello che avviene, come noto, per il Comune. In sostanza, tramite una lettura costituzionalmente orientata, l’ambito territoriale delle Città intelligenti va a coincidere con quello dei Comuni; ma non di tutti i Comuni, dal momento un Comune può qualificarsi come Città intelligente in forza dell’uso che fa e sempre che lo faccia dell’intelligenza artificiale o, in generale, degli strumenti informatici e digitali nel contesto urbano di riferimento.</p>
<p style="text-align: justify;">Pertanto, non tutti i Comuni sono Città intelligenti e viceversa: detto altrimenti, l’ambito territoriale delle Città intelligenti coincide con i Comuni, ma non tutti i Comuni sono Città intelligenti, dal momento che diviene dirimente l’utilizzo che ne fanno (e se lo fanno) degli strumenti di intelligenza artificiale.</p>
<p style="text-align: justify;">In sostanza, l’elemento territoriale che, tradizionalmente, costituisce l’ente comunale come elemento essenziale, diviene eventuale nel caso delle Città intelligente, non fosse altro perché gli strumenti di intelligenza artificiale come elemento essenziale che rendono un Comune una Città intelligente attengono più strettamente l’esercizio delle attività amministrative, non già l’mabito spaziale; tuttavia, nel caso in cui ciò avvenga, ossia che la compagine amministrativa locale si avvalga di sistemi di intelligenza artificiale nell’esercizio delle sue funzioni, questo ha ricadute concrete nel contesto territoriale di riferimento come elemento (eventuale) di una Città intelligente.</p>
<p style="text-align: justify;">In sostanza, l’intelligenza artificiale è elemento essenziale delle Città intelligenti, non già del Comune, laddove quest’ultimo la utilizzi a fini migliorativi della qualità di vita della collettività di riferimento: questo consente di cogliere l’elemento territoriale di riferimento, il contesto spaziale in cui agisce la Città intelligente, riconoscendole dignità giuridica.</p>
<p style="text-align: justify;">La Città intelligente non è altro, quindi, che un Comune che utilizzi strumenti di intelligenza artificiale al servizio dei cittadini nel contesto territoriale di riferimento.</p>
<p style="text-align: justify;">
<ul style="text-align: justify;">
<li><strong>(segue): la nuova dimensione della partecipazione “intelligente”, in chiave sussidiaria</strong></li>
</ul>
<p style="text-align: justify;">
<p style="text-align: justify;">Circa il principio di partecipazione che è il secondo profilo che in questa sede assume particolare importanza: il riferimento costituzionale non può che rintracciarsi nuovamente nel tenore dell’art. 118 della Costituzione, soprattutto in relazione al principio di sussidiarietà orizzontale, posto a presidio di ogni forma di partecipazione e collaborazione tra autorità pubbliche e cittadini.</p>
<p style="text-align: justify;">La partecipazione assume rilievo in quanto rappresenta, in sostanza, la chiave di lettura delle Città intelligenti, dal momento che i cittadini sono elemento essenziale, destinatari e vero motore del loro funzionamento<a href="#_ftn10" name="_ftnref10">[10]</a>.</p>
<p style="text-align: justify;">Ma il punto nodale è rappresentato dalle modalità attraverso cui si manifesta la loro partecipazione nelle Città intelligenti: la risposta non può che rintracciarsi proprio e ancora una volta nell’intelligenza artificiale, o meglio nel supporto e ausilio che l’intelligenza artificiale assume nelle dinamiche partecipative in cui sono coinvolti i cittadini, ad esempio, tramite la condivisione dei dati da parte dei singoli cittadini o il coinvolgimento attivo degli stessi o semplicemente mediante il loro consenso all’utilizzo di sistemi informatici o digitali da parte dell’amministrazione locale (con riferimento al tema della sicurezza che tra poco si vedrà nel dettaglio, il consenso dei cittadini ad essere, ad esempio, ripresi o tracciati o controllati dai sistemi di videosorveglianza).</p>
<p style="text-align: justify;">Il cerchio, quindi, inizia a chiudersi: in estrema sintesi, l’intelligenza artificiale si pone al servizio della partecipazione in un contesto urbano di riferimento che è quello delle Città intelligenti che tendenzialmente coincide con quello comunale.</p>
<p style="text-align: justify;">Quanto affermato trova, inoltre, fondamento normativo anche nel comma 4 dell’art. 1 della legge sull’intelligenza artificiale di recente introduzione, quando, richiamando il principio di autonomia e sussidiarietà, precisa che l’utilizzo di sistemi di intelligenza artificiale non deve pregiudicare l’esercizio delle competenze e delle funzioni delle istituzioni territoriali sulla base dei principi di autonomia e sussidiarietà.</p>
<p style="text-align: justify;">A questo punto, nella ricerca di un inquadramento giuridico della Città intelligenti che si sta pian piano delineando, non può non richiamarsi anche il principio di sussidiarietà, consacrato proprio nell’art. 118 della Costituzione.</p>
<p style="text-align: justify;">Anzi, non può che individuarsi una nuova declinazione anche del principio di sussidiarietà nella sua dimensione orizzontale, come fondamento della partecipazione che sia avvale degli strumenti di intelligenza artificiale in un contesto urbano di riferimento che è quello delle Città intelligenti: queste ultime, infatti, sono quelle più idonee a misurare e modulare la loro attività sulla base delle esperienze sociali e delle situazioni di fatto imposte dalla comunità di appartenenza e suggerite dai suoi cittadini per il tramite di strumenti partecipativi, coadiuvati e implementati ad oggi dall’intelligenza artificiale.</p>
<p style="text-align: justify;">È in definitiva, in questo senso, che va interpretato l’accostamento dell’aggettivo “intelligente” alla città come la dimensione (<em>governativa, urbana o territoriale)</em> più attenta e incentrata sulle reali esigenze di vita manifestate dai cittadini e dalle comunità di riferimento, grazie al supporto dell’intelligenza artificiale che consente e realizza forme di condivisione, di collaborazione e di partecipazione attiva molto più efficaci, efficienti ed immediate: in sostanza, la partecipazione come componente essenziale e caratterizzante del principio di sussidiarietà orizzontale va, altresì, a riempire di contenuto giuridico anche il concetto di intelligenza accostato alle città intelligenti.</p>
<p style="text-align: justify;">Quindi, non può che attribuirsi una veste giuridica all’aggettivo intelligente, innanzi richiamato, che accomuna la Città intelligente e l’intelligenza artificiale; infatti, può concludersi che l’intelligenza che connota la Città intelligente altro non significhi che partecipazione (in chiave sussidiaria) che si avvalga dell’intelligenza artificiale. Tutto è, pertanto, volto al coinvolgimento &#8211; diretto o meno che sia dei cittadini &#8211; a che l’amministrazione possa recuperare quante più informazioni, dati, elementi possibili, tramite il supporto dell’intelligenza artificiale, al fine di garantire loro condizioni di vita, come d’altra parte emerso nelle intenzioni del legislatore quando ha introdotto di recente la legge delega sull’intelligenza artificiale, che all’art. 14 sui principi in materia di pubblica amministrazione, innanzi richiamato, riconosce all’intelligenza artificiale una funzione strumentale e di supporto all’attività provvedimentale (soprattutto nell’ambito delle fasi istruttorie) dei procedimenti amministrativi.</p>
<p style="text-align: justify;">A questo punto, non appaia fuori luogo qualificare anche la partecipazione come <em>partecipazione</em> <em>intelligente: </em>la Città intelligente, infatti, non si concentra tanto (e solo) sulla promozione dell’utilizzo di nuove tecnologie di intelligenza artificiale come <em>mezzo</em> per migliorare la qualità di vita dei cittadini e il benessere di una comunità, ma si costruisce per lo più sulla promozione degli istituti di partecipazione &#8211; mediante l’ausilio dell’intelligenza artificiale- anche come <em>fine</em> per avvicinare e coinvolgere i cittadini e, soprattutto, consentire loro di interagire e comunicare direttamente all’amministrazione (a questo punto, soprattutto quella locale) le reali necessità ed esigenze come elementi indispensabili dei suoi processi decisionali.</p>
<p style="text-align: justify;">L’uso degli strumenti tecnologici maturati ad oggi nella intelligenza artificiale diviene il <em>mezzo</em> per semplificare il dialogo tra amministrazione e cittadini<a href="#_ftn11" name="_ftnref11">[11]</a>, rispetto a un <em>fine</em> che altro non è che la partecipazione o la condivisione a cui gli stessi devono tendere a realizzare per costruire una città inclusiva, partecipata, intelligente, sicura.</p>
<p style="text-align: justify;">In questo senso, devono interpretarsi le politiche di innovazione incentrate sulla digitalizzazione dei processi decisionali delle amministrazioni, in cui l’utilizzo del digitale e dell’intelligenza artificiale viene interpretato come una forma di investimento pubblico per una riforma strutturale delle amministrazioni. In altri termini, gli strumenti tecnologici e, in particolare, quelli digitali divengono strumento per la trasformazione economica e sociale che ha come scopo e fine quello di porre al centro delle azioni i cittadini e le imprese, per migliorare la loro qualità di vita sotto molteplici fini, tra cui, come si sottolineerà, anche quello della sicurezza urbana.</p>
<p style="text-align: justify;">Si riconosce, dunque, una forza centripeta alla intelligenza artificiale che tende a convergere verso un unico e più solido scopo rappresentato dalla partecipazione dei singoli alle decisioni amministrative, per fini superiori, come quello che si vedrà della sicurezza urbana.</p>
<p style="text-align: justify;">
<ol style="text-align: justify;" start="3">
<li><strong>La partecipazione “intelligente” al servizio della sicurezza urbana</strong></li>
</ol>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;">Esaminata, per grandi linee, la relazione che intreccia le Città intelligenti e l’intelligenza artificiale e che trova il suo punto di convergenza nella partecipazione dei cittadini resa più efficiente ed efficace mediante l’utilizzo dei strumenti di intelligenza artificiale rispetto al contesto urbano di appartenenza, si intende esaminarla dal punto di vista della sicurezza urbana, come fine pubblico che la Città intelligente intende perseguire.</p>
<p style="text-align: justify;">La sicurezza urbana, infatti, rappresenta l’interesse pubblico a cui l’amministrazione locale tende, rispetto al quale, più che in altri ambiti, si manifestano maggiormente ipotesi di utilizzo concreto di strumenti di intelligenza artificiale volti a realizzarlo.</p>
<p style="text-align: justify;">In sostanza, nel contesto urbano rappresentato dalle Città intelligenti, una prospettiva particolare da cui esaminare quella che si è definita come una partecipazione intelligente come suo connotato essenziale, anche per le forti ricadute applicative e pratiche, è rappresentata dalle modalità in cui la Città intende realizzare il fine pubblico securitario; queste dinamiche confermano l’apporto della intelligenza artificiale alle forme partecipative che sostanzia, come accennato, i tratti essenziali delle Città intelligenti.</p>
<p style="text-align: justify;">In primo luogo, però, è opportuno anche qui intendersi sul termine “sicurezza urbana”<a href="#_ftn12" name="_ftnref12">[12]</a>, rispetto a un quadro normativo offerto dal legislatore che appare abbastanza lineare, ma è in realtà, per alcuni versi, poco chiaro.</p>
<p style="text-align: justify;">La sicurezza urbana rientra, senza dubbio, nella competenza dei Comuni e, riprendendo quanto detto, cioè che il territorio connota, sebbene non definisca né identifichi le Città intelligenti &#8211; connotandosi come un elemento eventuale &#8211; riguarda anche, per l’appunto, queste ultime.</p>
<p style="text-align: justify;">Il testo normativo di riferimento è, a tal proposito, il cd. Decreto Minniti, decreto legge n. 14 del 20.02.2017 convertito in legge 18 aprile 2017, n. 48 proprio sulla sicurezza urbana<a href="#_ftn13" name="_ftnref13">[13]</a>.</p>
<p style="text-align: justify;">È importante il richiamo al D.L. “Minniti” in quanto ha definito in una norma di rango primario, all’art. 4, il concetto di sicurezza urbana, stabilendo che «si intende per sicurezza urbana il bene pubblico che afferisce alla vivibilità e al decoro delle città, da perseguire anche attraverso interventi di riqualificazione, anche urbanistica, sociale e culturale, e recupero delle aree o dei siti degradati, l’eliminazione dei fattori di marginalità e di esclusione sociale, la prevenzione della criminalità, in particolare di tipo predatorio, la promozione della cultura del rispetto della legalità e l’affermazione di più elevati livelli di coesione sociale e convivenza civile, cui concorrono prioritariamente, anche con interventi integrati, lo Stato, le Regioni e Province autonome di Trento e di Bolzano e gli enti locali, nel rispetto delle rispettive competenze e funzioni».</p>
<p style="text-align: justify;">Parafrasando la definizione, in un cerchio che si chiude, si rintracciano i riferimenti e le connessioni, a cui si è già fatto cenno, tra la partecipazione, la coesione sociale, e il principio di sussidiarietà, dal momento che concorrono prioritariamente ad essi, tra gli altri, gli enti locali, come i Comuni o, nella declinazione che in questa sede si suggerisce, quei Comuni che, avvalendosi dell’intelligenza artificiale, assumono la veste di Città intelligenti.</p>
<p style="text-align: justify;">La giurisprudenza della Corte Costituzionale (si pensi alla sentenza n. 47 del 25.03.2024) e la dottrina<a href="#_ftn14" name="_ftnref14">[14]</a> hanno puntato l’attenzione su una sicurezza urbana che la stessa legge definisce, all’art. 1, “integrata”<a href="#_ftn15" name="_ftnref15">[15]</a>, ossia basata essenzialmente sulla collaborazione interistituzionale, in cui assume rilievo il riparto di competenze e funzioni tra i vari livelli di governo, in forza del principio di sussidiarietà consacrato in Costituzione.</p>
<p style="text-align: justify;">Tali scopi sono perseguiti sia mediante accordi tra Stato, Regioni e Province autonome, sia attraverso il potenziamento dei poteri dei Sindaci (nella loro doppia veste di rappresentanti della comunità locale e rappresentanti del Governo), sia tramite l’apporto di altri due attori istituzionali tradizionalmente preposti alla sicurezza sul territorio che sono il Questore e il Prefetto. Soprattutto a quest’ultimo la legge consente di predisporre Patti con il Sindaco per obiettivi più specifici di carattere locale.</p>
<p style="text-align: justify;">In quest’ottica, il decreto Minniti ha correttamente optato per prediligere la prevenzione in luogo della repressione, dal momento che rappresenta il <em>modus operandi</em> più idoneo al raggiungimento di forme e obiettivi di controllo sociale, anche a fini securitari, allineandosi a una <em>ratio</em> seguita dal legislatore negli ultimi anni, inaugurata, come noto, dalla legge cd. anticorruzione del 2002, volta a prevenire, anziché reprimere (come avveniva tradizionalmente) eventuali fenomeni dissuasivi o intralcianti il regolare flusso dell’<em>agere</em> amministrativo.</p>
<p style="text-align: justify;">In particolare, l’art. 8 del decreto è andato a modificare gli artt. 50 e 54 del Testo Unico delle leggi sull’ordinamento degli enti locali circa le modalità di esercizio del potere di ordinanza attribuito al Sindaco<a href="#_ftn16" name="_ftnref16">[16]</a>.</p>
<p style="text-align: justify;">La disposizione attribuisce al Sindaco ulteriori poteri finalizzati a garantire per l’appunto la sicurezza urbana, volta a migliorare le condizioni e qualità della vita dei cittadini nell’ambito territoriale di competenza, realizzabile, pertanto, anche e soprattutto ad oggi mediante strumenti di intelligenza artificiale. O, detto altrimenti e seguendo le suggestioni innanzi esposte, nello spazio territoriale di riferimento che, in questo caso altro non è che quello di una Città intelligente, il Sindaco persegue fini di sicurezza urbana avvalendosi anche dell’apporto della intelligenza artificiale.</p>
<p style="text-align: justify;">Il dialogo e la collaborazione tra livelli di governo deve muoversi anche nell’ottica del coinvolgimento dei privati.</p>
<p style="text-align: justify;">Infatti, dalla lettura del testo normativo, si evince che la sicurezza urbana si ottiene tramite una maggiore attenzione al territorio da parte delle istituzioni pubbliche, delle forze dell’ordine e dei privati, che tutti insieme devono condividere &#8211; in pieno spirito partecipativo e collaborativo &#8211; e contribuire a risolvere eventuali situazioni di degrado del territorio o di disagio per la collettività.</p>
<p style="text-align: justify;">Anzi, da questa prospettiva, la legge 18 aprile 2017, n. 48 è stata introdotta dal legislatore proprio e volutamente con l’obiettivo di coordinare e favorire la collaborazione tra le forze di polizia, la polizia locale e i cittadini soprattutto mediante l’utilizzo di tecnologie e sistemi di sicurezza sempre più interconnessi e in grado di semplificare la gestione dei dati e lo scambio delle informazioni.</p>
<p style="text-align: justify;">La normativa, infatti, allo scopo di migliorare la qualità della vita e del territorio, realizzabile mediante forme di inclusione sociale e di riqualificazione socioculturale delle aree interessate, favorisce l’utilizzo di strumenti di collaborazione come le reti territoriali di volontari o avvalendosi anche dei sistemi di videosorveglianza: in sostanza, promuove quelli che vengono definiti, per l’appunto, <em>patti per la sicurezza urbana</em> (regolati dall’art. 5 del decreto n. 14 del 2017) per prevenire e contrastare i fenomeni di criminalità diffusa e predatoria anche con il coinvolgimento, mediante specifici accordi, di reti territoriali di volontari nella tutela dell’arredo urbano, delle aree verdi e dei parchi cittadini e favorire l’impiego delle forze di polizia per far fronte ad esigenze straordinarie di controllo del territorio anche mediante l’installazione di sistemi di videosorveglianza.</p>
<p style="text-align: justify;">Pertanto, è vero che la sicurezza urbana si realizza mediante il controllo dei cittadini, nella misura in cui l’uso degli strumenti informatici e digitali (come l’esempio dei sistemi di videosorveglianza) consente un monitoraggio capillare ed efficace delle aree e delle situazioni che siano a rischio<a href="#_ftn17" name="_ftnref17">[17]</a>, ma è altrettanto vero che è soprattutto il coinvolgimento e la partecipazione (si aggiunge, consapevole) dei cittadini a diventare un fattore essenziale per addivenire ad un modello di città sicura.</p>
<p style="text-align: justify;">In questo senso, le Città intelligenti devono, secondo le prescrizioni di legge, dotarsi di sistemi informatici e di piattaforme on-line accessibili h24, che permettano ai cittadini di comunicare qualsiasi problema riscontrato sul territorio, con la possibilità di inviare in tempo reale dati e informazioni utili per l’operatività del sistema di gestione e controllo.</p>
<p style="text-align: justify;">Il testo legislativo, quindi, conferma l’intento del legislatore che promuove l’utilizzo dell’intelligenza artificiale (ad esempio mediante i sistemi di videosorveglianza) come strumento di partecipazione finalizzato, nel caso di specie, alla sicurezza urbana.</p>
<p style="text-align: justify;">L’utilizzo dell’intelligenza artificiale, infatti, tramite i sistemi di videosorveglianza dei cittadini consente alle amministrazioni, da una parte, di raccogliere quante più informazioni e dati possibili al fine di migliorare la qualità della vita dei cittadini e la gestione del territorio nelle città, dall’altra, di “sfruttare” e ottimizzare le informazioni incamerate al fine del monitoraggio urbano o, meglio del controllo delle persone, “mappando” il territorio: tutto ciò ai fini della sicurezza urbana.</p>
<p style="text-align: justify;">Quindi, in sostanza, l’intelligenza artificiale nelle Città intelligenti applicata ai sistemi di sicurezza urbana, come sono i sistemi di videosorveglianza, ha lo scopo di migliorare la gestione delle città: migliorare nel senso di aumentare la qualità di vita dei cittadini, rendendo le città più vivibili, più sicure, più controllate, riducendo le situazioni di disagio sociale o prevedendo le situazioni di degrado urbano o di pericolo, allineandosi così, tra l’altro, a quanto previsto dal PNRR<a href="#_ftn18" name="_ftnref18">[18]</a>.</p>
<p style="text-align: justify;">
<ol style="text-align: justify;" start="4">
<li><strong> I nodi ancora irrisolti: il controllo dei luoghi e delle persone al fine della sicurezza urbana rispetto al diritto alla riservatezza dei cittadini</strong></li>
</ol>
<p style="text-align: justify;"><strong> </strong></p>
<ol style="text-align: justify;" start="4">
<li><strong> Riflessioni a margine della sicurezza urbana che si avvale della intelligenza artificiale </strong></li>
</ol>
<p style="text-align: justify;">
<p style="text-align: justify;">Le riflessioni innanzi esposte aprono la strada a una serie di suggestioni e di problemi che inevitabilmente si stagliano e che necessitano di essere collocati nei binari giuridici.</p>
<p style="text-align: justify;">Tra questi, un profilo che suscita senza dubbio qualche perplessità è quello legato al <em>controllo</em> di luoghi e, soprattutto, dei cittadini e il monitoraggio dei medesimi, possibile, ad esempio, attraverso i sistemi di videosorveglianza o, in generale, di altri strumenti di intelligenza artificiale, volti a realizzare un contesto urbano più sicuro.</p>
<p style="text-align: justify;">Senza dubbio, la presenza di forme di controllo da parte della amministrazione pubblica farebbe intendere l’assenza di alcuna forma di coinvolgimento, di apporto partecipativo, da parte dei cittadini “attenzionati” dai sistemi di intelligenza artificiale in uso alle amministrazioni pubbliche o, come nel caso di specie, da parte dei cittadini considerati, pertanto, soggetti “passivi” degli impianti, ad esempio, di videosorveglianza che risultano essere, pertanto, controllati e monitorati dalle amministrazioni pubbliche per fini più generali, dettati dalla sicurezza urbana.</p>
<p style="text-align: justify;">Tutto ciò, infatti, sembrerebbe stridere con quanto finora sostenuto di una intelligenza artificiale che, invece, serve alla partecipazione.</p>
<p style="text-align: justify;">Questa preoccupazione, invero, sembra che non abbia ragion di esistere, anzi!</p>
<p style="text-align: justify;">Nella maggior parte dei casi, infatti, soprattutto nella ipotesi dell’utilizzo degli strumenti di videosorveglianza, non può prescindersi da una considerazione importante: il singolo cittadino partecipa ed è coinvolto dall’amministrazione che si avvale della intelligenza artificiale, manifestando il suo <em>consenso</em>; il cittadino è, infatti, informato e consapevole e, soprattutto, accetta, prestando il suo consenso, di fornire informazioni e dati sulla sua persona all’amministrazione che utilizzi strumenti di videosorveglianza finalizzati alla sicurezza urbana.</p>
<p style="text-align: justify;">È in questo senso, quindi, in un cerchio che si chiude, che si realizza a pieno quella partecipazione intelligente in chiave sussidiaria che connota le Città intelligenti, come modello organizzativo che si avvale dell’intelligenza artificiale per consentire la partecipazione, tramite la condivisione, il coinvolgimento dei cittadini per un bene pubblico superiore che, in questo caso, è rappresentato dalla sicurezza urbana.</p>
<p style="text-align: justify;">La partecipazione, come carattere genetico della funzione amministrativa, si manifesta in sostanza, nel caso di specie, con il consenso dei cittadini ad essere controllati ed è funzionale ad un bene pubblico superiore che è quello del perseguimento della sicurezza urbana. Il cittadino, infatti, è disposto a “sacrificare”, in maniera consenziente e consapevole, anche la sua libertà, la sua <em>privacy</em>, i suoi diritti, dal momento che alla opzione postagli dinanzi se preferire una città più sicura o preservare la sua sfera personale, la sua riservatezza, la sua scelta ricadrebbe quasi certamente sulla prima.</p>
<p style="text-align: justify;">Tuttavia, per consentire la piena partecipazione, per consentire la piena consapevolezza da parte dei cittadini delle modalità attraverso cui la amministrazione agisce, anche con strumenti di intelligenza artificiale, per finalità generali di sicurezza urbana, le istituzioni devono assolvere a un preciso dovere di informazione e comunicazione ai cittadini, devono compensare quella assimetria informativa circa le modalità, anche mediante l’uso di strumenti di intelligenza artificiale, attraverso cui intendono realizzare città più sicure; solo così questi ultimi, una volta informati, accettando, condividono queste modalità e partecipano attivamente alla realizzazione di quel fine.</p>
<p style="text-align: justify;">I cittadini devono acquisire maggiore consapevolezza delle logiche utilizzate dalle amministrazioni che si servono di sistemi di intelligenza artificiale e devono farli proprio così da poter partecipare attivamente agli <em>iter</em> decisionali pubblici. In sostanza, gli strumenti di intelligenza artificiale assolvono un duplice scopo che si attanaglia, poi, al principio di trasparenza: consentono, sicuramente, più partecipazione ai cittadini nelle decisioni pubbliche, ma al contempo e a “monte”, necessitano di essere compresi nel loro utilizzo da parte dei cittadini che andranno a servirsene per partecipare alle decisioni pubbliche.</p>
<p style="text-align: justify;">In altri termini, il principio di trasparenza innerva tutte le dinamiche dell’azione pubblica in questo caso anche delle Città intelligenti, dal momento che diviene dirimente rendere comprensibili ai cittadini gli ambiti di impiego delle nuove tecnologie da parte delle amministrazioni pubbliche e consentire loro una conoscenza diffusa e approfondita del loro utilizzo perché possano effettivamente dialogare con le amministrazioni<a href="#_ftn19" name="_ftnref19">[19]</a>.</p>
<p style="text-align: justify;">E in questo senso, si sta muovendo il legislatore, quando, ad esempio, nella disciplina dei contratti pubblici, all’art. 30, commi 2, lettera a) e 5, sull’uso di procedure automatizzate nel ciclo di vita dei contratti pubblici, richiama concetti di conoscibilità e comprensibilità (tradizionalmente corollari del principio di trasparenza) degli strumenti di intelligenza artificiale per consentire la piena partecipazione dei privati alle procedure di affidamento delle commesse pubbliche.</p>
<p style="text-align: justify;">Come anche, più di recente, la legge delega sull’intelligenza artificiale, quando, dal combinato disposto degli artt.14 (relativo all’uso della intelligenza artificiale nella pubblica amministrazione) e 3 (sui principi generali) punta l’attenzione sul principio di trasparenza nella applicazione e utilizzo di sistemi e modelli di intelligenza artificiale, pur sempre assicurando la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo.</p>
<p style="text-align: justify;">Insomma, anche da questa prospettiva, persiste, ancora, la funzione riconosciuta all’intelligenza artificiale strumentale e di supporto all’attività provvedimentale delle pubbliche amministrazioni o, meglio, di supporto nell’ambito delle istruttorie dei procedimenti amministrativi<a href="#_ftn20" name="_ftnref20">[20]</a>.</p>
<p style="text-align: justify;">Altro profilo critico attiene alla portata giuridica della sicurezza urbana come interesse pubblico da perseguire, rispetto al concetto di sicurezza pubblica, sicuramente già noto al nostro ordinamento: il confine tra i due appare, ad oggi, ancora troppo labile e di difficile individuazione non fosse altro perché entrambi le due tipologie di sicurezza si muovono essenzialmente in un’ottica preventiva.</p>
<p style="text-align: justify;">Parte della giurisprudenza costituzionale<a href="#_ftn21" name="_ftnref21">[21]</a> ritiene che la sicurezza urbana integrata, già accennata, ossia basata sul dialogo e sulla collaborazione interistituzionale, abbia un ambito di applicazione differente rispetto alla sicurezza pubblica che attiene più specificatamente ai poteri attribuiti alle autorità volti al mantenimento dell’ordine pubblico, alla sicurezza e alla incolumità dei cittadini, alla tutela della proprietà, al controllo e all’osservanza delle leggi e dei regolamenti.</p>
<p style="text-align: justify;">Questo approdo del giudice delle leggi, infatti, distingue tra sicurezza primaria (o in senso stretto) che affonda le sue ragioni nella logica securitaria e nella sussistenza di un «nucleo duro della sicurezza di esclusiva competenza statale», in cui sono riservate solo allo Stato funzioni primariamente dirette a tutelare beni fondamentali, quali l’integrità fisica o psichica delle persone, la sicurezza dei possessi ed ogni altro bene che assume primaria importanza per l’esistenza stessa dell’ordinamento»: la sicurezza pubblica rientra non in «qualsiasi interesse pubblico alla cui cura siano preposte le pubbliche amministrazioni, dunque, ma soltanto quegli interessi essenziali al mantenimento di una ordinata convivenza civile». E sicurezza cd. secondaria, quella urbana, che assume «una possibile declinazione pluralista, coerente con la valorizzazione del principio autonomistico di cui all’art. 5 della Costituzione…una sicurezza «in senso lato» (o sicurezza secondaria), capace di ricomprendere un fascio di funzioni intrecciate, corrispondenti a plurime e diversificate competenze di spettanza anche regionale»<a href="#_ftn22" name="_ftnref22">[22]</a>.</p>
<p style="text-align: justify;">Ma altro orientamento del giudice delle leggi<a href="#_ftn23" name="_ftnref23">[23]</a> considera la sicurezza urbana strettamente collegata alla tutela della sicurezza pubblica, intesa come attività di prevenzione e repressione dei reati: quest’ultimo, a questo punto, sembra essere il loro tratto in comune e fa rientrare la sicurezza urbana nelle più tradizionali funzioni di ordine pubblico volte a migliorare il contesto sociale e territoriale di riferimento<a href="#_ftn24" name="_ftnref24">[24]</a>.</p>
<p style="text-align: justify;">D’altro canto, il tema della sicurezza non è nuovo nel panorama giuridico nazionale, anzi.</p>
<p style="text-align: justify;">Quello della sicurezza e dell’ordine pubblico hanno da sempre rappresentato gli interessi pubblici al cui raggiungimento era finalizzato il potere pubblico: infatti, il modello accentrato di Stato del periodo liberale<a href="#_ftn25" name="_ftnref25">[25]</a> era tradizionalmente teso a soddisfare un interesse pubblico di tal guisa e l’azione del potere pubblico era essenzialmente caratterizzata dalla concezione autoritaria del rapporto cittadino – amministrazione, nel quale la sicurezza degli individui rappresentava un problema di sicurezza pubblica e, quindi, di ordine pubblico<a href="#_ftn26" name="_ftnref26">[26]</a>.</p>
<p style="text-align: justify;">In sostanza, in coerenza con l’ideologia liberale, le funzioni amministrative dello Stato erano contenute in quelle indispensabili alla conservazione e allo sviluppo della collettività, cioè funzioni di pubblico ordine e di generale conservazione<a href="#_ftn27" name="_ftnref27">[27]</a>.</p>
<p style="text-align: justify;">A tanto, d’altra parte, si allinea la previsione dell’art. 117, comma 1, della Costituzione che attribuisce la potestà legislativa esclusiva in materia di ordine pubblico e sicurezza allo Stato.</p>
<p style="text-align: justify;">Ma questa previsione va ad oggi ridimensionata non solo dal dettato di cui all’art. 118 della Costituzione che, al comma 3, affida sempre alla legislazione statale forme di coordinamento tra Stato e Regioni nella medesima materia e, al comma 4, coinvolge i singoli, in ossequio al principio di sussidiarietà orizzontale, ma anche, nel caso di specie, dal dettato normativo di cui al decreto n. 14 del 2017, innanzi trattato, che quando definisce la sicurezza urbana punta al coinvolgimento di tutti i livelli di governo, anche e soprattutto locali, e dei cittadini, per realizzare il fine comune securitario.</p>
<p style="text-align: justify;">Tuttavia, a definire meglio i contorni delle due tipologie di sicurezza, che rappresentano comunque un «obbligo che incombe allo Stato nella sua funzione amministrativa», appare ancora attuale la riflessione di Alessi<a href="#_ftn28" name="_ftnref28">[28]</a>, che nei <em>Principi di diritto amministrativo</em>, approfondiva la cd. attività amministrativa di <em>polizia </em>intesa nella duplice accezione di “polizia di sicurezza”, ossia con la finalità specifica della tutela dell’ordine pubblico, e “polizia amministrativa”, ossia nella finalità generica della tutela di interessi di altra natura riferiti a specifici rami dell’amministrazione. L’aspetto in comune delle suddette accezioni attiene alla «tutela del tutto sociale o delle sue parti, mediante un’attività volta a volta di osservazione, di prevenzione e di repressione, contro i danni che ad essi potrebbero derivare dall’attività degli individui»<a href="#_ftn29" name="_ftnref29">[29]</a>.</p>
<p style="text-align: justify;">Questa posizione di ontologica e strutturale supremazia e superiorità<a href="#_ftn30" name="_ftnref30">[30]</a> rispetto ai soggetti privati giustificata dal raggiungimento di interessi pubblici come (ora come allora) quello della sicurezza va senza dubbio contestualizzata rispetto alle più recenti dimensioni che assume ad oggi il tema della sicurezza: il concetto di sicurezza, da una parte, è fortemente innervato dalle attuali dinamiche relazionali tra amministrazioni (su tutti i livelli di governo) e privati, dall’altro, consente di stemperare il carattere fortemente autoritativo, grazie a una maggiore partecipazione di questi ultimi.</p>
<p style="text-align: justify;">In altri termini, il tema della sicurezza urbana rappresenta ad oggi il punto di convergenza tra le tradizionali funzioni statali in materia di ordine e sicurezza e le funzioni locali di promozione della qualità di vita dei cittadini, partecipi anch’essi in questo processo migliorativo delle condizioni di sicurezza delle città.</p>
<p style="text-align: justify;">In sostanza, per alcuni versi, si assiste a un ritorno al passato in cui l’azione pubblica diviene funzionale alla realizzazione di interesse pubblico di sicurezza<a href="#_ftn31" name="_ftnref31">[31]</a>, che, però a differenza del passato interessa l’amministrazione, a tutti livelli, soprattutto quello locale, che non si astiene dal coinvolgere il singolo, ma anzi, si premura di renderlo partecipe dal momento che il suo apporto diviene determinante al raggiungimento del fine pubblico securitario.</p>
<p style="text-align: justify;">Il concorso di e tra tutti i livelli di governo e della partecipazione dei cittadini configurano ad oggi  la sicurezza urbana come un «bene plurale, un bene pubblico che deve essere realizzato in maniera integrata e condivisa»<a href="#_ftn32" name="_ftnref32">[32]</a>: la promozione della sicurezza urbana, infatti, passa dai patti di sicurezza, dai poteri sindacali di ordinanza, dalle associazioni dei cittadini di volontariato e dagli strumenti di videosorveglianza ad oggi perfezionati dall’intelligenza artificiale, come esposto, che rappresentano tutti esempi tangibili di partecipazione del privato su tutti i livelli di governo.</p>
<p style="text-align: justify;">Ad oggi, sul tema della sicurezza –a questo punto, sia quella urbana che pubblica – è maturata la consapevolezza e la convinzione della necessità di modelli partecipativi condivisi tra privato e pubblico su tutti i livelli di governo, ad oggi ammantati dall’intelligenza artificiale: in questo senso è condividibile l’attribuzione di un carattere relazionale alla nozione di sicurezza che necessita per essere soddisfatta del coordinamento e dall’integrazione di attività di soggetti istituzionalmente diversi<a href="#_ftn33" name="_ftnref33">[33]</a>.</p>
<p style="text-align: justify;">Questi modelli consentono di limare il concetto stesso di sicurezza nel senso di ricondurla nei binari della Costituzione e dei principi generali della attività amministrativa (di partecipazione, di sussidiarietà, di trasparenza) come in questa sede si è tentato di dimostrare.</p>
<p style="text-align: justify;">Si suggerisce, in sostanza, una lettura costituzionalmente orientata della sicurezza (nella duplice formula e una riaffermazione dei principi generali dell’azione amministrativa, quali in particolare quello di partecipazione tra attori pubblici (statali e locali) e cittadini, che consentono di affrontare a pieno il problema securitario nelle città, anche intelligenti, non solo nell’ottica della prevenzione dei reati, ma anche e soprattutto nella promozione e garanzia di migliori condizioni di vivibilità.</p>
<p style="text-align: justify;">Al di là degli scenari che questa suggestione apre, rimane, tuttavia, la convinzione che l’intelligenza artificiale, come strumento in uso alle amministrazioni, possa coinvolgere, senza dubbio, i soggetti privati, rafforzando il concetto di Città intelligente, di cui nelle premesse si sono descritti i tratti essenziali, in collaborazione interistituzionale tra tutti i livelli di governo.</p>
<p style="text-align: justify;"> Tutto ciò si allinea, d’altro canto, a quanto previsto dalla legge sull’intelligenza artificiale, secondo cui la strategia nazionale per l’intelligenza artificiale favorisce la collaborazione tra amministrazioni pubbliche e tra queste e i soggetti privati (i cittadini) relativamente allo sviluppo e adozione di sistemi di intelligenza artificiale.</p>
<p style="text-align: justify;">L’uso della intelligenza artificiale nelle Città intelligenti serve, in sostanza, a migliorare la qualità della vita dei cittadini di riferimento, anche e soprattutto in termini di sicurezza urbana: l’importante è che venga integrata e adottata in modo etico, responsabile, trasparente e partecipativo, come è nelle intenzioni del legislatore nazionale, secondo il dettato della recente legge sull’intelligenza artificiale.</p>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a> Aa. Vv., <em>Intelligenza artificiale: criticità emergenti e sfide per il giurista</em>, in <em>BioLaw Journal – Riv. BioDiritto, </em>3, 2019, 205 e ss.; Aa. Vv., <em>Il diritto dell’amministrazione pubblica digitale,</em> R. Cavallo Perin e D.U. Galetta (a cura di), Torino, 2020, 119-158; Aa. Vv., <em>Intelligenza artificiale &#8211; Il diritto, i diritti, l’etica, </em>U. RUFFOLO (a cura di), Milano, 2020, 571 e ss.; Aa. Vv., <em>Intelligenza artificiale e diritto: una rivoluzione</em>, A. Pajno, F. Donati, A. Perrucci (a cura di), Bologna, 2022, 88-92; P. CLARIZIA, <em>La digitalizzazione</em>, in <em>Giorn. dir. amm</em>., 3, 2023, 302 e ss.; B. Boschetti, <em>La transizione della pubblica amministrazione verso il modello</em> Government as a platform, in <em>L’amministrazione pubblica nell’era digitale</em>, A. Lalli (a cura di, Torino), 2022, 1 e ss.; F. Cardarelli, <em>Uso della telematica</em>, in <em>Codice dell’azione amministrativa</em>, M.A. Sandulli (a cura di), Milano, 2010, 427 ss.; M. Ippolito, <em>Alcune prospettive di disintermediazione dei processi nella pubblica amministrazione: l’impatto della tecnologia Blockchain</em>, in <em>Rivista Giuridica AmbienteDiritto</em>.it, 2, 2021.; E. Picozza, <em>Politica, diritto amministrativo</em> and artificial intelligence, in <em>Giur. it</em>., 7, 2019, 1657 ss.; L. Torchia, <em>Lo Stato digitale</em>, Bologna, 2023; G. Finocchiaro, <em>La regolazione dell’intelligenza artificiale</em>, in <em>Riv. trim. dir. pubbl</em>., 4, 2022, 1090 e ss.; V. Neri, <em>Diritto amministrativo e intelligenza artificiale: un amore possibile</em>, in <em>Urb. e app.</em>, 2021, 5, 581 e ss.</p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a> Urbano</p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a><em>Architettura per le comunità intelligenti: visione concettuale e raccomandazioni alla pubblica amministrazione</em>, in <a href="http://www.agid.it/"><em>www.agid.it</em></a>, 3 ottobre 2012.</p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> Cfr., da ultimo, G. Bergonzini, <em>Sicurezza della città, tecnologie digitali e intelligenza artificiale: tra regole europee, garanzie costituzionali e autonomia locale</em>, in <em>Federalismi.it</em>, 23 ottobre 2024.</p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a>Cfr., F. Cortese, <em>Dentro il nuovo diritto delle città, </em>in <em>Munus, </em>2016, 2, VII, il quale ritiene che il diverso modo di essere città può superare, sia pur in casi e con strumenti tassativamente stabiliti, il confine della tradizionale cornice giuridico – amministrativa comunale. E lo può fare ufficialmente, istituzionalmente.</p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a>M. Roncayolo, <em>La Città. Storie e problemi della dimensione urbana</em>, Torino, 1978, 8.</p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a>Dizionario Treccani online, <em>Città (voce).</em></p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a>Art. 3 del T.U. Enti Locali.</p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a>Cfr. F. Di Lascio<em>, La regolazione amministrativa degli spazi urbani,</em> in <em>Munus</em>, 2016, 2, 317 e ss., il quale indaga la relazione tra il diritto amministrativo e la città attraverso tre direttrici, tra cui l’ultima attiene al rapporto proprio tra il diritto e la fisicità degli spazi cittadini in cui la componente del territorio assume un rilievo peculiare. Il territorio, infatti, permette il riconoscimento delle città come oggetti giuridici particolari.</p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a>M. Caporale, <em>L’intelligenza si ripartisce o si condivide?, A proposito di </em>smartness<em>, livelli di governo e una certa idea di città</em>, in <em>Istituzioni del federalismo</em>, 2015, 4, 857 e ss.., 860.</p>
<p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a>Cfr. E. Ferrero, <em>Le smart cities nell’ordinamento giuridico, </em>in<em> Foro amm., </em>2015, 4, 1267 e ss., il quale afferma che la tecnologia può essere intesa come  strumento efficace di eliminazione delle forme di intermediazione del potere amministrativo.</p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a> Cfr. sulle molteplici accezioni di sicurezza, D. Coduti, <em>La libertà di riunione in discussione. L’art. 17 della Costituzione e la sfida della sicurezza</em>, Bari, 2022 e R. Ursi, <em>La sicurezza pubblica</em>, Bologna, 222. Cfr. sul tema della sicurezza urbana, G. Tropea, <em>Periferie e sicurezza urbana</em>, <em>Periferie e diritti fondamentali</em>, Napoli, 2020.</p>
<p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> Cfr. F. Morganti, <em>La sicurezza urbana nel c.d. “decreto Minniti”, </em>in <em>Democrazia e Sicurezza, </em>2017, 3.</p>
<p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> T.F. Giupponi, <em>Sicurezza integrata e </em>welfare<em> di comunità</em>, Bologna, 2022.</p>
<p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> Art.1, comma 2, definisce sicurezza integrata come «l’insieme degli interventi assicurati dallo Stato, dalle Regioni, dalle Province autonome di Trento e Bolzano e dagli enti locali, nonché da altri soggetti istituzionali, al fine di concorrere, ciascuno nell’ambito delle proprie competenze e responsabilità, alla promozione e all’attuazione di un sistema unitario e integrato di sicurezza per il benessere delle comunità territoriali».</p>
<p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> In riferimento al Sindaco quale rappresentante del territorio, il T.u.e.l. già disponeva all’art. 50, c. 5, che «in caso di emergenze sanitarie o di igiene pubblica a carattere esclusivamente locale le ordinanze contingibili e urgenti sono adottate dal sindaco, quale rappresentante della comunità locale». Si è così aggiunto, dopo tale periodo: «Le medesime ordinanze sono adottate dal sindaco, quale rappresentante della comunità locale, in relazione all’urgente necessità di interventi volti a superare situazioni di grave incuria o degrado del territorio, dell’ambiente e del patrimonio culturale o di pregiudizio del decoro e della vivibilità urbana, con particolare riferimento alle esigenze di tutela della tranquillità e del riposo dei residenti, anche intervenendo in materia di orari di vendita, anche per asporto, e di somministrazione di bevande alcoliche e superalcoliche».</p>
<p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> A. Barone, <em>Amministrazione del rischio e intelligenza artificiale</em>, <em>in European Review of Digital Administration</em> &amp; Law – Erdal, vol. I, Issue, 1- 2, 2020, 63-67.; G. Finocchiaro, <em>La proposta di regolamento sull’intelligenza artificiale: il modello europeo basato sulla gestione del rischio</em>, in <em>Diritto dell’informazione e dell’informatica</em>, 2, 2022, 303 e ss.</p>
<p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> D.U. Galetta, <em>Transizione digitale e driitto ad una buona amministrazione: fra prospettive aperte per le pubbliche amministrazioni dal Piano Nazionale di Ripresa e Resilienza e problemi ancora da affrontare</em>, in <em>www.federalismi.it</em>, 7, 2022, 103-125.; I. Macrì., <em>Il PNRR italiano per la digitalizzazione e l’innovazione della pubblica amministrazione</em>, in <em>Azienditalia</em>, 1, 2022, 38 e ss.</p>
<p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> Cfr. A. Corrado, <em>I nuovi contratti pubblici, intelligenza artificiale e </em>blockchain<em>: le sfide del prossimo futuro</em>, in <em>Federalismi.it</em>, 2023, 19.</p>
<p style="text-align: justify;"><a href="#_ftnref20" name="_ftn20">[20]</a> G. Gardini, <em>L’uso preparatorio dell’AI come limite agli eccessi regolativi. Per una valutazione “in concreto” dell’intelligenza artificiale applicata all’agire pubblico</em>, in <em>Le Istituzioni del federalismo</em>, aprile/giugno 2025, 261.</p>
<p style="text-align: justify;"><a href="#_ftnref21" name="_ftn21">[21]</a> Corte Cost. n. 47 del 2024.</p>
<p style="text-align: justify;"><a href="#_ftnref22" name="_ftn22">[22]</a> Cfr. Corte Cost., 23 dicembre 2019, n. 285 che richiama anche la sentenza del giudice delle leggi n. 290 del 2001.</p>
<p style="text-align: justify;"><a href="#_ftnref23" name="_ftn23">[23]</a> Corte Cost. n. 196 del 2009, 226 e 274 del 2010, 115 del 2011.</p>
<p style="text-align: justify;"><a href="#_ftnref24" name="_ftn24">[24]</a> Precisa la Corte nella sentenza n. 285 del 2019, punto 2.5. che «In tal senso, il menzionato decreto-legge ha disciplinato in senso ampio e trasversale le «forme di coordinamento» previste dall’art. 118, terzo comma, Cost., coinvolgendo gli enti regionali non solo quali terminali delle scelte compiute dallo Stato in materia di ordine pubblico e sicurezza, ma anche come portatori di interessi che, ancorché non direttamente afferenti alla materia di cui all’art. 117, secondo comma, lettera h), Cost., sono teleologicamente connessi alla competenza esclusiva statale. Nel disegno del legislatore statale, infatti, l’intervento regionale dovrebbe assicurare le precondizioni per un più efficace esercizio delle classiche funzioni di ordine pubblico, per migliorare il contesto sociale e territoriale di riferimento, postulando l’intervento dello Stato in relazione a situazioni non altrimenti correggibili se non tramite l’esercizio dei tradizionali poteri coercitivi».</p>
<p style="text-align: justify;"><a href="#_ftnref25" name="_ftn25">[25]</a> Cfr., V. OTTAVIANO, <em>Cittadino e amministrazione nella concezione liberale, </em>in <em>Studi in onore di G. Auletta, </em>Milano, 1988, vol. III, 481 e ss. e in <em>Scritti giuridici, </em>Milano, vol. I, 1992, 49 il quale si sofferma sul tipo di organizzazione fortemente accentrata del periodo liberale, ossia «scarsamente aperta ad influenze dirette da parte della società, e che, almeno secondo il modello ideale a cui avrebbe dovuto corrispondere, operava obiettivamente e quindi in grado di sottrarsi ad indebite inframmettenze politiche».</p>
<p style="text-align: justify;"><a href="#_ftnref26" name="_ftn26">[26]</a> Sull’evoluzione dei poteri dell’amministrazione, cfr. V. OTTAVIANO, <em>Poteri dell’amministrazione e principî costituzionali, </em>in <em>Riv. trim. dir. pubblico, </em>1964, 912 e ss. e in <em>Scritti giuridici, </em>Milano, vol. I, 1992, 13 e ss. Cfr. anche A. BARONE, <em>Il diritto del rischio,</em> Milano, 2006, 8 e ss. constata che l’azione del potere pubblico era caratterizzata nello Stato monoclasse dalla concezione autoritaria del rapporto cittadino – amministrazione, nel quale la sicurezza degli individui è un problema di sicurezza pubblica e, quindi, di ordine pubblico.</p>
<p style="text-align: justify;"><a href="#_ftnref27" name="_ftn27">[27]</a> Cfr., V. OTTAVIANO, <em>Cittadino e amministrazione, op. cit., </em>40 afferma che «L’azione diretta a facilitare il soddisfacimento dei bisogni fisici ed economici dell’individuo, a diffondere l’educazione e la cultura, etc., veniva vista così in funzione di tutela preventiva dell’ordine sociale e quindi come ausilio dell’attività di polizia vera e propria. Contribuiva al rafforzamento di tale tendenza la convinzione che lo Stato dovesse limitare il più possibile i suoi interventi in campi diversi da quelli della garanzia dell’ordine pubblico».</p>
<p style="text-align: justify;"><a href="#_ftnref28" name="_ftn28">[28]</a> R. ALESSI, <em>Principi di diritto amministrativo</em>, Milano, 1978, Tomo II, 589 e ss.</p>
<p style="text-align: justify;"><a href="#_ftnref29" name="_ftn29">[29]</a> Cfr., E. BOSCOLO – M. CAFAGNO, <em>Lo “Stato dispensatore”: le prestazioni di servizio pubblico tra universalismo e selettività, </em>in <em>Diritto amministrativo e Corte Costituzionale, </em>a cura di G. DELLA CANANENA – M. DUGATO, Napoli, 2006, 87 e ss. e sulla nozione di polizia amministrativa nell’evoluzione storico-legislativa, G. MANFREEDI, <em>La nozione di polizia amministrativa nel diritto italiano</em>, 2011.</p>
<p style="text-align: justify;"><a href="#_ftnref30" name="_ftn30">[30]</a> <em>Ex mulits</em>, V. E. ORLANDO, <em>Principii di diritto amministrativo</em>, Firenze, II ed., 1892, 229 e ss. si sofferma sul ruolo dello Stato, che “nell’agire, comanda” e afferma che «Dal punto di vista del diritto amministrativo, importa stabilire questa prima e generale verità, cioè che lo Stato, per il raggiungimento dei suoi fini, dichiara la sua volontà, e questa volontà, discendendo dal diritto d’impero, deve essere <em>ubbidita</em>”, tanto da considerare le persone a cui il comando dello Stato (che serve per attuare i fini dell’amministrazione pubblica) è diretto, dei sudditi. La manifestazione dell’attività amministrativa era considerata come espressione di atti unilaterali di “imperio”, tra i quali il più tipico è il provvedimento amministrativo che si caratterizza per l’attributo dell’autorietà, consistente nella “ possibilità di produrre unilateralmente nella sfera giuridica di altri soggetti le modificazioni giuridiche previste dalle proprie statuizioni».</p>
<p style="text-align: justify;">Cfr. anche A.M. SANDULLI, <em>Manuale di diritto amministrativo</em>, Napoli, 1984, 593 e ss. La posizione dell’amministrazione statale assume così un ruolo che, giustamente, può dirsi di primazia, che comporta, sul piano dell’attività amministrativa, la possibilità di fruire di amplissimi poteri discrezionali di fatto incontrollati. Infatti, i controlli giurisdizionali sulle amministrazioni pubbliche, nel pieno rispetto del principio della separazione dei poteri, sono, quasi per l’intero secolo, pochi e poco penetranti: in Italia le prime sentenze nelle quali si usi l’eccesso di potere come strumento di lettura dell’attività amministrativa sono degli anni ’90 del XIX secolo, dopo l’istituzione della IV sezione del Consiglio di Stato nel 1889.</p>
<p style="text-align: justify;"><a href="#_ftnref31" name="_ftn31">[31]</a> Cfr., V. OTTAVIANO, <em>Cittadino e amministrazione, op. cit.,</em> 38 sottolinea il ruolo ricoperto dalla beneficenza concepita «non come una prestazione da rendere a chi si trovava in stato di bisogno, ma come un modo per attenuare le tensioni sociali, eliminando in via preventiva alcune delle cause che potevano turbare l’ordine pubblico». L’A. aggiunge che «le prestazioni assistenziali potevano giustificarsi solo a favore di coloro che non erano in grado di provvedere a se stessi, quali i minori, gli orfani, i vecchi. Da ciò la necessità di distinguere fra bisognosi meritevoli di assistenza e coloro che invece non lo erano. L’assistenza in definitiva mirava nelle sue varie forme al controllo delle classi povere».</p>
<p style="text-align: justify;"><a href="#_ftnref32" name="_ftn32">[32]</a> V. Antonelli, <em>La sicurezza delle città tra luci e ombre</em>, in <em>Labsus </em>e, in maniera più approfondita, Id., <em>Sicurezza delle città tra diritti ed amministrazione</em>, Padova, 2018.</p>
<p style="text-align: justify;"><a href="#_ftnref33" name="_ftn33">[33]</a> A. Pajno, <em>La “sicurezza urbana” tra poteri impliciti e inflazione normativa</em>, in <em>La sicurezza urbana</em>, a cura di A. Pajno, Collana Astrid.</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/">L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</title>
		<link>https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Thu, 30 Oct 2025 10:43:55 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=90031</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/">Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</a></p>
<p>Sebastiano Napolitano* Abstract: L’inserimento negli atti difensivi di citazioni giurisprudenziali inesistenti (cd. allucinazioni), generate dall’Intelligenza Artificiale (IA), viola i doveri di lealtà e probità da parte del Difensore. La nota analizza il principio di centralità del controllo umano (human in the loop), alla luce del quadro normativo (AI Act, L.132/2025,</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/">Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/">Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</a></p>
<p style="text-align: justify;"><strong>Sebastiano Napolitano*</strong></p>
<p style="text-align: justify;"><strong>Abstract:</strong></p>
<p style="text-align: justify;">L’inserimento negli atti difensivi di citazioni giurisprudenziali inesistenti (cd. allucinazioni), generate dall’Intelligenza Artificiale (IA), viola i doveri di lealtà e probità da parte del Difensore. La nota analizza il principio di centralità del controllo umano (<em>human in the loop)</em>, alla luce del quadro normativo (AI Act, L.132/2025, CEPEJ), sulle risposte generate (<em>output</em>) dall’IA alle richieste (<em>prompts</em>) di ricerca giurisprudenziale.</p>
<p style="text-align: justify;">Abstract:</p>
<p style="text-align: justify;"><em>The inclusion in the defence documents of non-existent jurisprudential citations (</em>so-called hallucinations<em>), generated by Artificial Intelligence (</em>AI<em>), violates the duties of loyalty and probity on the part of the Defender. The note analyzes the principle of centrality of human control (</em>human in the loop<em>), </em><em>in the light of the regulatory framework (AI Act, L.132/2025, CEPEJ), on the responses generated (</em>output<em>) by AI to the requests (</em>prompts<em>) of jurisprudential research. </em></p>
<p style="text-align: justify;"><strong>SOMMARIO :</strong></p>
<p style="text-align: justify;"><strong>-1. Premessa -2. </strong><strong>La Giustizia Predittiva</strong><strong> -3. La prevedibilità delle decisioni -4. Il ruolo dei precedenti</strong><strong> &#8211; 5. </strong><strong>Limiti all’uso dell’IA nella giustizia -6. Allucinazioni -7.</strong><strong> Il fatto -8. Le argomentazioni del Collegio -9. Inquadramento normativo della vicenda -10. La soluzione adottata dal TAR -11. Conclusioni</strong></p>
<ol style="text-align: justify;">
<li><strong> PREMESSA</strong></li>
</ol>
<p style="text-align: justify;">L’automazione generata dalle nuove tecnologie è in grado di cambiare le dinamiche lavorative<a href="#_ftn1" name="_ftnref1">[1]</a>.</p>
<p style="text-align: justify;">L’uso dell’intelligenza artificiale (d’ora innanzi, “IA”), ormai dovunque diffuso e pressoché generalizzato, non rappresenta solo una nuova tecnologia, ma una vera e propria rivoluzione industriale (presente e non futura), un’opportunità da cogliere e governare, perché in grado di garantire un indubbio miglioramento nella disponibilità e nel controllo delle informazioni necessarie per giungere, attraverso una migliore, più rapida e completa individuazione di precedenti giurisprudenziali, alla previsione del probabile esito di una controversia (cd. giustizia predittiva).</p>
<ol style="text-align: justify;" start="2">
<li><strong> LA GIUSTIZIA PREDITTIVA</strong></li>
</ol>
<p style="text-align: justify;">Come argutamente osservato dalla Dottrina<a href="#_ftn2" name="_ftnref2">[2]</a>, poiché l’espressione “giustizia predittiva” viene utilizzata in diverse accezioni, è opportuno chiarire che la “giustizia predittiva in senso lato”<a href="#_ftn3" name="_ftnref3">[3]</a>, che “mira all’individuazione, attraverso strumenti di data <em>research analysis</em>, dei precedenti giudiziari in grado di (o, forse meglio, utili a) <em>pre-dicere</em> l’esito di una controversia non ancora avviata o comunque non decisa”, va tenuta distinta dalla “giustizia predittiva in senso stretto”, che, “collocandosi all’interno del procedimento decisionale<a href="#_ftn4" name="_ftnref4">[4]</a>, ha a che vedere in realtà più con lo <em>jus dicere</em> (cd. algoritmo decisore), che con il <em>jus pre-dicere</em>” (cd. algoritmo predittore)<a href="#_ftn5" name="_ftnref5">[5]</a>.</p>
<p style="text-align: justify;">Grazie alla rapidissima evoluzione tecnologica, abbiamo, ora, a disposizione “sistemi che non si limitano più a basarsi su sistemi esperti che fondandosi su regole predefinite seguono programmi specifici o sistemi di apprendimento automatico o che apprendono dai dati di addestramento e inferiscono regole per prevedere risultati specifici, ma sistemi che combinano questi vantaggi, aggiungendo la capacità di rispondere al contesto e fornire spiegazioni sul processo decisionale. Sistemi che &#8220;apprendono&#8221; man mano che analizzano i dati, distinguendosi dall&#8217;apprendimento umano, e che hanno bisogno di moltissimi dati, dati che devono essere affidabili e di qualità”<a href="#_ftn6" name="_ftnref6">[6]</a>.</p>
<ol style="text-align: justify;" start="3">
<li><strong> LA PREVEDIBILITÀ DELLE DECISIONI </strong></li>
</ol>
<p style="text-align: justify;">Alla meta della calcolabilità<a href="#_ftn7" name="_ftnref7">[7]</a> delle decisioni giudiziarie<a href="#_ftn8" name="_ftnref8">[8]</a>, quale corollario della certezza del diritto<sup>9</sup>, si può, dunque, giungere, a questo punto dell’avanzamento tecnologico, attraverso il supporto di una sempre più evoluta tecnologia e, in particolare, mediante l’impiego dell’IA<a href="#_ftn9" name="_ftnref9">[9]</a>, in cui le metodiche di selezione del materiale archiviato in banche dati trascendono l’argomento per sfociare «<em>nella regola del caso concreto</em>».</p>
<p style="text-align: justify;">Tutto quello che può rendere prevedibile – e, quindi, conseguentemente “certa” – la giustizia, deve essere incoraggiato, perché idoneo a favorire scambi commerciali, libertà di stabilimento e ridurre i costi per le imprese<a href="#_ftn10" name="_ftnref10">[10]</a>; tuttavia l’intuibile pericolo di uno scivolamento verso sistemi del  <em>common law</em>, per l’inevitabile rafforzamento della “vincolatività” del precedente<a href="#_ftn11" name="_ftnref11">[11]</a>, quale conseguenza della maggiore trasparenza e diffusione di precedenti specifici, può essere bilanciato, dalla sinergia dei formanti giurisprudenziali e dottrinali, nonché dall’apporto professionale degli operatori del diritto, operanti nel processo, che grazie alla puntuale e ragionata estrazione della giurisprudenza di merito e legittimità, a fronte del mutare di istanze provenienti dalla realtà sociale, ben potrà e saprà compiere scelte (interpretative), anche coraggiose ed innovative, senza per ciò stesso rendere meno valido il perseguimento della “certezza del diritto” e conseguente prevedibilità della decisione.</p>
<ol style="text-align: justify;" start="4">
<li><strong> IL RUOLO DEI PRECEDENTI</strong></li>
</ol>
<p style="text-align: justify;">L’IA utilizza il precedente per individuare regole e orientamenti, favorendo uniformità e prevedibilità delle decisioni; tuttavia, è centrale l’apporto umano sia sotto il fondamentale profilo del controllo di quanto generato dall’IA, sia per la indubbia e sempre garantita possibilità da parte del formante dottrinario, come già accennato, di concorrere al mutamento d’indirizzo.</p>
<p style="text-align: justify;">Il valore della prevedibilità delle decisioni, invero, non significa postulare un immobilismo giuridico mediante l’imposizione di un vincolo di automatica conformazione<a href="#_ftn12" name="_ftnref12">[12]</a>, ma significa assicurare uniformità, laddove manchino valide argomentazioni a sostegno del dissenso tali da determinare la costruzione condivisa di un opposto, nuovo o più autorevole indirizzo<a href="#_ftn13" name="_ftnref13">[13]</a>; riferendosi la prevedibilità delle decisioni non tanto all’astratta previsione legale, bensì alla norma vivente risultante dall’applicazione e dall’interpretazione dei giudici, in stretto raccordo con le fonti costituzionali e sovranazionali<a href="#_ftn14" name="_ftnref14">[14]</a>.</p>
<ol style="text-align: justify;" start="5">
<li><strong> LIMITI ALL’USO DELL’IA NELLA GIUSTIZIA </strong></li>
</ol>
<p style="text-align: justify;">La Giustizia rientra nella Fascia ad «alto rischio» nell’uso di IA, con <u>obbligo</u> di valutazione di conformità, trasparenza, sorveglianza umana e monitoraggio post-commercializzazione .</p>
<p style="text-align: justify;">È necessario, dunque, chiedersi come e in che limiti l&#8217;IA possa essere utilizzata dagli operatori del diritto.</p>
<p style="text-align: justify;">L’uso dell’IA (a supporto, redazione, analisi etc) &#8211; vale subito anticipare prima di richiamare il caso esaminato nella decisione del TAR in commento &#8211; è consentito purché con stretta supervisione e controllo umano (cd.<em>human in the loop) </em> .</p>
<ol style="text-align: justify;" start="6">
<li><strong> ALLUCINAZIONI</strong></li>
</ol>
<p style="text-align: justify;">Un’allucinazione è una risposta generata dall’IA che appare plausibile ma è inventata, priva di fondamento nei dati reali o nelle fonti affidabili. È una delle principali sfide dei modelli generativi.</p>
<ol style="text-align: justify;" start="7">
<li><strong> IL FATTO</strong></li>
</ol>
<p style="text-align: justify;">Nel caso all’esame il Collegio verificato che nel ricorso tutte le sentenze citate a sostegno dell’affermazione dell’illegittimità dei provvedimenti impugnati richiamavano estremi di pronunce non pertinenti e le massime indicate in molti casi erano riferibili ad orientamenti giurisprudenziali non noti, ai sensi dell’art. 88 cod. proc. civ., applicabile al processo amministrativo in forza del rinvio contenuto nell’art. 39 cod. proc. amm., disponeva l’invio di copia della sentenza al Consiglio dell’Ordine degli Avvocati di Milano stigmatizzando la violazione da parte del Difensore (che in sede di trattazione orale, alla richiesta di chiarimenti sul punto, aveva candidamente ammesso di aver citato, nel ricorso, della giurisprudenza reperita mediante l’uso di strumenti di ricerca basati sull’intelligenza artificiale che avevano evidentemente generato risultati errati)  del dovere di   comportarsi in giudizio con lealtà e probità, avendo omesso la doverosa attività di controllo della giurisprudenza citata (rectius: generata dall’IA) e dei principi dalla stessa apparentemente affermati.</p>
<ol style="text-align: justify;" start="8">
<li><strong> LE ARGOMENTAZIONI DEL COLLEGIO</strong></li>
</ol>
<p style="text-align: justify;">La condotta posta in essere dal Difensore che riporta, negli atti difensivi citazioni giurisprudenziali &#8211; per avvalorare la propria tesi – inesistenti (…“<em>non pertinenti e massime … riferibili ad orientamenti giurisprudenziali non noti</em>”), perché frutto delle cd. allucinazioni dell’IA, pone in essere una condotta che viola il “<em>dovere del difensore di comportarsi in giudizio con lealtà e probità, in quanto introduce elementi potenzialmente idonei ad influenzare il contraddittorio processuale e la fase decisoria verso un percorso non corretto, e perché rende inutilmente gravosa, da parte del giudice e delle controparti, l’attività di controllo della giurisprudenza citata e dei principi dalla stessa apparentemente affermati</em>”. Nessuna valenza esimente può, poi, riconoscersi alla dichiarazione del Difensore di essersi avvalso nella ricerca dell’Intelligenza Artificiale, “<em>in quanto la sottoscrizione degli atti processuali ha la funzione di attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori o di strumenti di intelligenza artificiale</em>.”</p>
<ol style="text-align: justify;" start="9">
<li><strong> INQUADRAMENTO NORMATIVO DELLA VICENDA </strong></li>
</ol>
<p style="text-align: justify;">In punto di regolamentazione, il primo  presidio, in materia, è arrivato dalla Cepej<a href="https://www.agendadigitale.eu/documenti/giustizia-digitale/ai-e-giusto-processo-facciamo-il-punto-le-norme-le-applicazioni-le-sentenze/#_ftn10"> (Commissione europea per l’efficienza della giustizia</a>), che ha enucleato, nel 2018, una serie di principi<a href="#_ftn15" name="_ftnref15">[15]</a>, contenuti nella <a href="https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348">Car</a>ta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla CEPEJ nel corso della sua Riunione plenaria (Strasburgo, 3-4 dicembre 2018).</p>
<p style="text-align: justify;">La direzione impressa dalla Commissione, non è quella di una cd. “Giustizia algoritmica” <a href="#_ftn16" name="_ftnref16">[16]</a>, <em>id est, </em>l’impiego di “macchine intelligenti”<a href="#_ftn17" name="_ftnref17">[17]</a> in grado (di <em>jus-dicere</em>) di sviluppare un ragionamento artificiale,<a href="#_ftn18" name="_ftnref18">[18]</a> da utilizzare per motivare sentenze  scritte con “foglie” di algoritmi, sospinte dal vento all’esterno di una “banca dati”, quale ”Antro della Sibilla”<a href="#_ftn19" name="_ftnref19">[19]</a> <em>ante litteram</em>, come scampoli motivazionali – accostati casualmente e logicamente validi, ma, non giuridicamente prevedibili e trasparenti (tanto che ad ogni interrogazione delle dette “<em>Justice Machines</em>”, per diverso accostamento, le soluzioni proposte inevitabilmente si presentano diverse e finanche opposte)-  perché  i Difensori possano trarre “vaticinio” <a href="#_ftn20" name="_ftnref20">[20]</a>; ma ferma, la centralità della persona del Giudice, secondo le indicazioni provenienti dalle fonti europee che promuovono un&#8217;IA affidabile e antropocentrica<a href="#_ftn21" name="_ftnref21">[21]</a>, è necessario individuare e far ricorso ad un algoritmo che sia strumento ancillare, ma, al contempo, pregnante nell’attività giudiziaria (il riferimento è appunto agli strumenti di <em>data research analysis</em>, quali quelli di cui è già dotata la Banca dati merito), in grado di trasformare gli obiettivi  di rapidità e prevedibilità delle decisioni, in azioni concrete e realizzabili<a href="#_ftn22" name="_ftnref22">[22]</a>.</p>
<p style="text-align: justify;">Più di recente, il 13 giugno 2024,  è stato approvato dal Parlamento Europeo e dal Consiglio il Regolamento (UE) 2024/1689, noto anche come AI Act<a href="#_ftn23" name="_ftnref23">[23]</a>.</p>
<p style="text-align: justify;">Questo regolamento stabilisce regole armonizzate per lo sviluppo, l&#8217;immissione sul mercato e l&#8217;uso dei sistemi di IA nell&#8217;Unione Europea.</p>
<p style="text-align: justify;">Al centro della legislazione si rimarca la preservazione dell’autonomia umana, si sottolinea che l’IA deve servire come strumento per amplificare, e non sostituire, il potere decisionale umano<a href="#_ftn24" name="_ftnref24">[24]</a>.</p>
<p style="text-align: justify;">L’intento è chiaro: l’IA deve essere un’alleata dell’umanità, non una forza che ne mina l’autodeterminazione.</p>
<p style="text-align: justify;">In sede nazionale,  il Consiglio dei Ministri ha iniziato a confrontarsi sul tema dell’avvento della IA nella giustizia<a href="#_ftn25" name="_ftnref25">[25]</a> con il Disegno di legge n. 1146.<a href="#_ftn26" name="_ftnref26">[26]</a></p>
<p style="text-align: justify;">Il Presidente del Consiglio dei Ministri e il Ministro della giustizia, hanno, invero, presentato un disegno di legge approvato dal Senato &#8211; n.S.1146- in data 20 marzo 2024, comunicato alla Presidenza in 20 maggio 2024, recante Disposizioni e delega al Governo in materia di intelligenza artificiale, con l’intento di dettare una normativa nazionale che “<em>senza sovrapporsi al regolamento UE predisponga un sistema di principi, governance e misure specifiche adatte al contesto italiano per cogliere tutte le opportunità dell’intelligenza artificiale</em>”.</p>
<p style="text-align: justify;">Tra gli obiettivi espressi, vi è quello di garantire ai cittadini italiani l&#8217;uso affidabile e responsabile dell&#8217;IA, assicurando la supervisione umana in ogni fase di sviluppo e di utilizzo dei sistemi IA per la tutela dei diritti fondamentali.</p>
<p style="text-align: justify;">L’approccio della normazione nazionale è, dunque, duplice:</p>
<p style="text-align: justify;"> &#8211; da una parte, la promozione di un utilizzo corretto, trasparente e responsabile dell’intelligenza artificiale, in una dimensione antropocentrica, per coglierne pienamente le enormi opportunità (art. 1, comma 1, secondo periodo);</p>
<p style="text-align: justify;">&#8211; dall’altra, la necessaria vigilanza sui potenziali rischi economici e sociali e sull’impatto sui diritti fondamentali, con gli strumenti propri dell’ordinamento nazionale (art. 1, comma 1, terzo periodo).</p>
<p style="text-align: justify;">Il testo approvato con modificazioni alla Camera, C.2316, in data 25 giugno 2025 è stato approvato definitivamente al Senato, S.1146-B, in data 17 novembre 2025 ed è ora una Legge dello Stato, la n.132 del 23 settembre 2025, recante “Disposizioni e deleghe<a href="#_ftn27" name="_ftnref27">[27]</a> al Governo in materia di intelligenza artificiale (25G00143)”, pubblicata nella GU n.223 del 25.09.2025 ed entrata in vigore il 10.10.2025.</p>
<p style="text-align: justify;">Questa legge affianca il nascente quadro UE (AI Act) fissando principi <strong>antropocentrici</strong> e limiti all’IA, in modo che <strong>serva da supporto e non sostituisca mai l’uomo</strong>.</p>
<p style="text-align: justify;">La legge nazionale <strong>abilita l’uso dell’IA</strong> in ambito legale e giudiziario per sfruttarne i benefici di efficienza, ma pone <strong>paletti stringenti</strong> a tutela dei principi fondamentali: <strong>il giudice è insostituibile</strong> nel processo decisionale, l’<strong>avvocato mantiene il controllo</strong> sulla consulenza al cliente; la <strong>trasparenza e la responsabilità</strong> fanno da cornice all’uso dell’IA (si pensi all’obbligo da parte del Difensore di informare il cliente sull’uso di IA, e alla responsabilità personale degli output generati dall’IA copiati negli atti).</p>
<ol style="text-align: justify;" start="10">
<li><strong> LA SOLUZIONE ADOTTATA DAL TAR</strong></li>
</ol>
<p style="text-align: justify;">Ne risulta, che le argomentazioni sviluppate dal Collegio, che tra l’altro richiama “La carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense” redatta dall’Ordine degli Avvocati di Milano nel 2024, si pone in linea con il contesto normativo eurounitario, oltre che con la novella legislativa nazionale, che affermato il principio antropocentrico nell’uso delle nuove tecnologie che &#8211; utilizzabili<strong> per “coadiuvare”, ma mai “sostituire”</strong> l’operatore del diritto &#8211;  impone un preciso dovere in capo all’operatore del diritto di verifica e controllo dell’esito delle ricerche &#8211; attraverso il <strong>grounding (</strong>l’ancoraggio dell’output generato dall’IA a fonti documentali reali<strong>) &#8211;</strong> effettuate con i sistemi di intelligenza artificiale, la cui inosservanza è fonte di responsabilità per violazione del dovere del difensore di comportarsi in giudizio con lealtà, correttezza e probità.</p>
<ol style="text-align: justify;" start="11">
<li><strong> CONCLUSIONI</strong></li>
</ol>
<p style="text-align: justify;">Chi usa l’IA in ambito forense <strong>deve verificare</strong> gli output e <strong>risponde personalmente</strong> delle citazioni false o non pertinenti; l’omissione integra <strong>violazione deontologica</strong> e può dar luogo a <strong>segnalazione all’Ordine</strong>, oltre alle ordinarie conseguenze processuali.</p>
<p style="text-align: justify;">25 ottobre 2025</p>
<p style="text-align: justify;">Sebastiano Napolitano</p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1"></a>* <strong>Sebastiano Napolitano</strong>, <em>Magistrato. Segretario Generale della Corte di Appello di Napoli. Consigliere della Corte di Appello di Napoli, sezione Lavoro. Giudice della Corte di Giustizia Tributaria di Secondo Grado Campania</em></p>
<p style="text-align: justify;">[1] <em>S.</em> Napolitano, <em>Un algoritmo per </em>pre-dicere,<em> ma non dall’“antro della Sibilla” in</em> Focus sulla giustizia predittiva “La transazione digitale la nuova dimensione del lavoro (parte 1^) n.1/2025 12.3.2025 in Lavoro Diritti Europa _LDE</p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a>  M. Biasi, <em>Intelligenza artificiale e processo: verso un robot-giudice per le controversie lavoristiche?</em>, in Id. (a cura di), <em>Diritto del lavoro e intelligenza artificiale</em>, Giuffrè, 2024, n. 739.</p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a> M. Sciacca, <em>Algoritmo e Giustizia alla ricerca di una mite predittività, </em>in Persona e Mercato 2023/1- Commenti<em>, i</em>l saggio esamina le opportunità e i rischi dell’intelligenza artificiale applicata alla giustizia, con particolare attenzione ai progetti nazionali e internazionali di “giustizia predittiva”. L’autore riconosce il valore ausiliario dell’IA per giudici e operatori, ma sottolinea la necessità di limiti costituzionali e di un controllo umano effettivo, per evitare automatismi decisionali e garantire trasparenza, comprensibilità e tutela dei diritti fondamentali. Viene proposta una “predittività mite”, in cui l’IA supporta ma non sostituisce il giudizio umano, e si auspica una regolazione attenta e un approccio cooperativo tra istituzioni, tecnologia e cultura</p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> “<em>Giudizio è un vocabolo polivalente. Replicando la notissima distinzione di Giovanni Tarello</em>” G. Tarello, <em>Orientamenti analitico-linguistici e teoria dell’interpretazione giuridica</em>, in U. Scarpelli, a cura di, Diritto e analisi del linguaggio, Milano 1976 “<em>tra interpretazione attività  e interpretazione prodotto, possiamo distinguere tra giudizio attività</em> <em>(come processo mentale di discernimento, di scelta e di decisione) e giudizio prodotto (come esito di tale attività giudicatrice). E similmente si potrebbe distinguere tra decisione come atto del decidere e decisione come contenuto di quell’atto</em>”. In questi termini G. Zaccaria, <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, in Rivista di diritto civile 2020, 2 n. 278.</p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a> In argomento sulla distinzione L. Viola, <em>Giustizia predittiva</em>, in Treccani Online, 2018 (www.treccani.it, v., <em>amplius</em>, Id., <em>L’interpretazione della legge secondo modelli matematici</em>, Roma, 2018 A. Santosuosso, G. Sartor, <em>La giustizia predittiva: una visione realistica</em>, in E. GABRIELLI, M. Dell’Utri (a cura di), <em>La giustizia predittiva</em>, in Giur. It., 2022, 7, n.1771; G. Zaccaria, <em>Mutazioni del diritto: innovazione tecnologica e applicazioni predittive</em>, in Ars Interpretandi, 2021, 1, n. 40; Id. <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, in Riv.dir.Civ, 2020, 2, n. 277 ; U. Ruffolo, <em>Giustizia predittiva, decisione algoritmica e ruolo ancillare della machina come ausiliare necessario del giudice umano</em>, in A. Pajno, F. Donati, A. Perrucci (a cura di), <em>Intelligenza artificiale e diritto: una rivoluzione?</em>, vol. II, <em>Amministrazione, responsabilità, giurisdizione</em>, Bologna, 2022, n. 453 ss.; nella letteratura internazionale, v. T. Sourdin, <em>Judge v Robot?</em> <em>Artificial Intelligence and Judicial Decision-Making</em>, in UNSW Law Journal, 2018, 41(4), n. 1114 ss., che si riferisce a <em>replacing</em> e a <em>supporting technologies</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a> C. Castelli, <em>L’irruzione dell’intelligenza artificiale nella giustizia è inevitabile, dobbiamo conoscerla, utilizzarla e governarla per non subirla</em>, cit.</p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a> Avverte G. Zaccaria, in <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, cit., n. 279-280) “<em>Calcolabilità è qualcosa di diverso da prevedibilità. Che la prevedibilità sia un aspetto strutturale del diritto è fuori di dubbio: poter riporre aspettative sui comportamenti altrui, poter fare affidamento su future decisioni giudiziali costituiscono elementi essenziali del fenomeno giuridico, della sua natura di impresa cooperativa che tutela e stabilizza pratiche sociali di interazione dotate di regolarità. La prevedibilità è al cuore della coordinazione tra azioni individuali e istituzioni sociali e si connette inscindibilmente alla certezza, di cui rappresenta anzi il necessario presupposto. Mentre la certezza si riferisce ad un aspetto enunciativo, la prevedibilità si protende in una dimensione applicativa, quella dei risultati preannunziabili. Connettendosi al rispetto delle regole da parte dell’organo decidente (regole sulle fonti, sull’interpretazione, sulla procedura, sull’argomentazione), la prevedibilità consente anche di valutare le decisioni come corrette o come scorrette…la prevedibilità delle decisioni si traduce nella loro controllabilità&#8230;Ma la calcolabilità esprime qualcosa di più della prevedibilità, essendo la possibilità di calcolare più precisa e determinata di quella di prevedere. Il calcolo introduce infatti una dimensione matematizzante ed un approccio geometrico, un’idea del diritto come macchina che di per sé mal si attagliano alla specificità del fenomeno giuridico, e ancor più alle sue caratteristiche contemporanee di pluralismo, complessità, porosità. La logica del probabile, da cui è contraddistinto il sapere pratico, e dunque anche il giudizio giuridico, non è identificabile con una dimensione statistico-matematica, ma piuttosto con le plurime possibilità con cui un modello cogente di carattere generale può essere applicato alle specificità del caso concreto”… “In ogni caso, se si parla di calcolabilità del diritto con riguardo al diritto giurisprudenziale non si può che farlo in modo articolato. Se si considera infatti il tema dal punto di vista del rapporto tra legislazione e giurisdizione è legittimo sostenere che il diritto giurisprudenziale può rendere meglio calcolabile, ossia più chiara e certa, l’insuperabile vaghezza del testo legislativo; se invece lo si considera unicamente dall’ottica dello stesso diritto giurisprudenziale, esso non può che registrare oscillazioni e differenze e talora moltiplicazione dei contrasti che rendono quest’ultimo “poco” calcolabile”.</em> <em>“Ciò che deve in ogni caso rimanere non è la calcolabilità come fatto, ma la calcolabilità, meglio ancora la prevedibilità, come valore, come valore anzi specifico e connaturato al diritto, da continuare a promuovere e difendere. La prevedibilità del diritto contiene in sé una promessa di giustizia”. </em>P. Grossi, <em>Sulla odierna ‘incertezza’ del diritto</em>, in Giust. civ., 2014, n. 921-955; Id., <em>Ritorno al diritto</em>, Roma-Bari 2015, n. 51 ss. G. Alpa, <em>La certezza del diritto nell’età dell’incertezza</em>, Napoli 2006, n. 74 ss. <em>L’“incertezza “del diritto, ne costituisce allora un limite invalicabile: si tratta solo di limitarne il più possibile il grado, evitando che essa comprometta l’intero sistema giuridico. Per dirla con uno slogan, il diritto è chiamato a ridurre l’incertezza più che a garantire la certezza. </em></p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a> <em>Calcolabilità giuridica</em>, a cura di A. Carleo, Bologna 2017; <em>Il vincolo giudiziale del passato. I precedenti</em>, a cura di A. Carleo, Bologna 2018; <em>Decisione robotica</em>, a cura di A. Carleo, Bologna 2019; N. Irti, <em>Per un dialogo sulla calcolabilità giuridica</em>, in Calcolabilità giuridica, cit., p. 21-22.</p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a> M. Biasi, <em>op. cit</em>., n. 738.</p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a> “<em>La prevedibilità delle decisioni costituisce un valore da preservare; l’operatore economico vedrebbe aggiungersi al rischio di impresa insito nella natura dell’attività esercitata un’alea ulteriore alla quale non è culturalmente preparato e che la propria capacità organizzativa non può affrontare: ossia fronteggiare decisioni giudiziali del tutto imponderabili e incontrollabili perché slegate da criteri interpretativi certi, necessari al corretto funzionamento dell’economia di mercato e dei meccanismi di creazione e redistribuzione della ricchezza ad essa correlati</em>”, cfr. G. Ariolli, <em>Nomofilachia, giustizia predittiva e intelligenza artificiale, un Diritto e Innovazione</em>, 3.11.2023, cit.; “<em>La certezza del diritto e la prevedibilità delle decisioni sono, infatti, una componente fondamentale del corretto funzionamento dell’economia di mercato e delle leggi ad essa connesse, dei rapporti tra le imprese e tra i cittadini o tra questi e lo Stato</em>” M. Luciani, <em>La decisione giudiziaria robotica</em>, in <em>Associazione Italiana Costituzionalisti (Rivista)</em>, 3/2018, n. 872 ss.</p>
<p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a> G. Taruffo, <em>Precedente e giurisprudenza</em>, Napoli 2007; E. Calzolaio, <em>Mutamento giurisprudenziale e overruling</em>, in R. trim. d. proc. civ., 2013, 3, n. 899-917; F. Follieri, <em>Correttezza (Richtigkeit) e legittimazione del diritto giurisprudenziale al tempo della vincolatività del precedente</em>, in <em>D. Amm</em>., 2014, 1-2, p. 265-354; N. Irti, <em>Sulla relazione logica di conformità (precedente e susseguente)</em>, in <em>Il vincolo giudiziale del passato</em>, cit., n. 17, 23; A. Gambaro, <em>Note in tema di uso forense dei precedenti giudiziari</em>, in A. Carleo, a cura di, <em>Il vincolo giudiziale del passato</em>, cit., n. 182.</p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a>“ <em>Il precedente non fossilizza il diritto, ma lo rinnova</em>.”… “<em>La distinzione tradizionale tra precedente vincolante (negli ordinamenti di common law) e precedente meramente persuasivo (negli ordinamenti di civil law) si mostra ormai come largamente inattendibile e incapace di descrivere l’efficacia del precedente negli ordinamenti contemporanei. L’intensità con cui il precedente è in grado di influire sulle decisioni successive, la sua forza, può certo essere differenziata, formale ed esplicita in alcuni casi, informale in altri, ma deve comunque fare i conti con la struttura dell’argomentazione giuridica con riferimento all’interpretazione della regola giuridica e alla sua giustificazione. La persuasività e la ragionevolezza della regola di attenersi al precedente ma anche la sua vincolatività ammettono comunque eccezioni che le limitano. Anche quando sia vincolante, l’obbligo di stare decisis non è mai assoluto o insuperabile: e ciò contribuisce a spiegare il motivo per cui la parola “precedente” non ha un referente preciso</em>”, così G. Zaccaria, <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, cit., n. 287.</p>
<p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> G. Ariolli, <em>Nomofilachia, giustizia predittiva e intelligenza artificiale</em>, in <em>Diritto e Innovazione</em>, 3.11.2023.</p>
<p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> Come chiaramente evidenziato in Dottrina (M. Biasi, op. cit. n. 737), è centrale per le strategie di investimento degli operatori economici il binomio certezza (delle regole) – prevedibilità (della decisione) ed ivi, in nota 3, il richiamo al <em>passo di </em>M. Weber<em>, Economia e società </em>(1922), trad. it., Torino, 1999, 472:<em> “ciò che occorre al capitalismo è un diritto che possa venir calcolato al pari di una macchina</em>”</p>
<p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> In particolare la Carta etica prevede la formulazione di cinque principi: 1) il rispetto dei diritti fondamentali; 2) principio di non discriminazione; 3) principio di qualità e sicurezza; 4) principio di trasparenza, imparzialità e correttezza; 5) principio di garanzia dell’intervento e del controllo umano.</p>
<p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> N. Irti “<em>Un diritto incalcolabile”</em>, in <em>Riv. dir. civ</em>., 2016, n. 11 ss</p>
<p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> “<em>La tentazione del robot che ragiona e decide, l’esaltazione dell’infallibilità della macchina a fronte della fallibilità dell’uomo, l’idea della costruzione di un mondo nuovo basata sulla delega alle macchine, ritornano a serpeggiare nel mondo contemporaneo, nel quale si diffonde la credenza collettiva per cui la delega alle macchine avrebbe un carattere di necessità. L’ordine dato dall’uomo sarebbe sostituito dall’ordine delle macchine. È interessante notare come quest’illusione si sviluppi anche nell’ambito giuridico nonostante l’indubitabile sconfitta teorica, almeno in sede di teoria generale del diritto, dell’idea di un giudice spersonalizzato, mero applicatore di norme precostituite e rigidamente definite. E nonostante il fatto che le pur notevoli performances del digitale non sempre autorizzino questa straordinaria attrazione nei suoi confronti</em>”… G. Zaccaria, <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, cit., n. 289.</p>
<p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> R. Messinetti, <em>Brevi note sulla certezza del diritto nella società algoritmica</em>, in <em>Contratto e Impresa</em>, 2/2024, n. 283 ss. Restituisce in modo sorprendente questo legame un vecchio, quasi sconosciuto un racconto di fantascienza giudiziaria (in nota 4 Charpentier, <em>Justice 65</em>, Paris, 1954, trad. it., <em>Justice Machines</em>. Racconto di fantascienza giudiziaria, Macerata, 2015)”, in cui  “…<em>protagonista è un avvocato che, svegliatosi da un sonno decennale, non riconosce il mondo. A Parigi la facoltà di legge è chiusa; i giudici sono scomparsi, sostituiti da Justice Machines: artefatti cibernetici che estraggono le sentenze a sorte<strong>.</strong> Anche gli avvocati sono trasformati: meri traduttori delle domande delle parti nel linguaggio delle macchine. In poche parole: i francesi avevano preso sul serio la vecchia burla di cui Rabelais si era servito per canzonare i giudici del suo tempo. All’incertezza del diritto generata dai giudici umani avevano preferito quella di un’alea assoluta e per questo imparziale ed equanime. Ed erano contenti della lotteria della giustizia. Ma solo per poco perché, alla fine, nessuno chiedeva più quella giustizia.</em></p>
<p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> <em> S.</em> Napolitano, <em>Un algoritmo per </em>pre-dicere,<em> ma non dall’“antro della Sibilla” cit. n.7 e ss.</em></p>
<p style="text-align: justify;"><a href="#_ftnref20" name="_ftn20">[20]</a> Allo stato non è ipotizzabile un impiego di algoritmi nel contesto decisionale del giudice in Italia: lo impedisce l’articolo 8 del Decreto Legislativo 51 del 2018, di recepimento della Direttiva UE 16/680; cfr. E. Nagni, <em>Artificial intelligence, l’innovativo rapporto di (in)compatibilità fra machina sapiens e processo penale</em>, in Sistema Penale 7/2021, n. 16</p>
<p style="text-align: justify;"><a href="#_ftnref21" name="_ftn21">[21]</a> M. Biasi, <em>Problema e sistema nella regolazione lavoristica dell’intelligenza artificiale: note preliminari</em>, in <em>federalismi</em>, n.30/2024, n. 168.</p>
<p style="text-align: justify;"><a href="#_ftnref22" name="_ftn22">[22]</a> Va tenuta distinta, in altri termini, come avverte M. Biasi, op. cit.,  <em>la “giustizia predittiva in senso lato”, che mira all’individuazione, attraverso strumenti di data research analysis, dei precedenti giudiziari in grado di (o, forse meglio, utili a) pre-dicere l’esito di una controversia non ancora avviata o comunque non decisa , dalla “giustizia predittiva in senso stretto”, che, collocandosi all’interno del procedimento decisionale, ha a che vedere in realtà più con lo jus dicere che con il jus pre-dicere</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref23" name="_ftn23">[23]</a> Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale), pubblicato sulla GUUE del 12 luglio 2024.</p>
<p style="text-align: justify;">Il 13 marzo 2024 il Parlamento europeo ha approvato il regolamento sull’intelligenza artificiale (AI ACT), frutto dell&#8217;accordo raggiunto con gli Stati membri nel dicembre 2023. Il regolamento stabilisce obblighi per l&#8217;IA sulla base dei possibili rischi e del livello d&#8217;impatto. Ciò in quanto, il provvedimento è impostato su un&#8217;architettura di rischi connessi all’uso della IA, suddivisi in quattro categorie: inaccettabili, alti, limitati e minimi. Maggiore è il rischio, maggiori le responsabilità e i divieti per chi sviluppa o adopera sistemi di intelligenza artificiale. Per un commento alla versione dell’AI Act approvata dal Parlamento europeo nella seduta del 13 marzo 2024 e ratificata dal Consiglio il 21 maggio 2024, M. Peruzzi, <em>Intelligenza artificiale e lavoro: l’impatto dell’AI Act nella ricostruzione del sistema regolativo Ue di tutela</em>, in M. Biasi (a cura di), <em>Diritto del lavoro e intelligenza artificiale</em>, Giuffrè, 2024, n. 115 ss.; in generale, sul rapporto tra lavoro e IA, si veda, senza ambizione di completezza, S. Scagliarini, I. Senatori (a cura di), <em>Lavoro, Impresa, e Nuove Tecnologie dopo l’AI Act</em>, Fondazione Marco Biagi, 2024; M. Biasi (a cura di), <em>op. cit</em>.; M. Peruzzi, <em>Intelligenza artificiale e lavoro. Uno studio su poteri datoriali e tecniche di tutela</em>, Giappichelli, 2023.</p>
<p style="text-align: justify;"><a href="#_ftnref24" name="_ftn24">[24]</a>  Il messaggio chiave dell’AI Act è che la tecnologia debba fungere da mezzo a servizio dell’uomo (e non il contrario), donde il reiterato richiamo, all’interno del testo, all’idea di un’IA antropocentrica (cfr. M. Biasi, <em>Il lavoro nel disegno di legge governativo in materia di intelligenza artificiale: principi, regole, parole, silenzi</em>, in Diritto delle Relazioni Industriali Giuffrè, 2024, n. 3, n. 646).</p>
<p style="text-align: justify;"><a href="#_ftnref25" name="_ftn25">[25]</a> M. Biasi, <em>Il lavoro nel disegno di legge governativo in materia di intelligenza artificiale</em>, cit., n .659.</p>
<p style="text-align: justify;"><a href="#_ftnref26" name="_ftn26">[26]</a> D.d.l. S 1146, recante Disposizioni e delega al Governo in materia di intelligenza artificiale, presentato dal Presidente del Consiglio dei Ministri e dal Ministro della giustizia e comunicato alla Presidenza il 20 maggio 2024, il testo è stato approvato con modificazioni  alla Camera, C.2316, in data 25 giugno 2025, approvato in via definitiva al Senato, S.1146-B, in data 17 novembre 2025, oggi è Legge della Stato n.132 del 23 settembre 2025 “Disposizioni e deleghe al Governo in materia di intelligenza artificiale (25G00143) entrata in vigore il 10.10.2025, pubblicata nella GU n.223 del 25.09.2025</p>
<p style="text-align: justify;"><a href="#_ftnref27" name="_ftn27">[27]</a> In particolare l’art.16 rubricato “Delega al Governo in materia di dati, algoritmi e metodi matematici per <em>l&#8217;addestramento di sistemi di intelligenza artificiale” </em>prevede che “1. <em>Il Governo è delegato ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, uno o più decreti legislativi per definire una disciplina organica relativa all&#8217;utilizzo di dati, algoritmi e metodi matematici per l&#8217;addestramento di sistemi di intelligenza artificiale <strong>senza obblighi ulteriori, negli ambiti soggetti al regolamento (UE) 2024/1689, rispetto a quanto già ivi stabilito</strong>.</em> <em>2. Gli schemi dei decreti legislativi di cui al comma 1 sono adottati su proposta del Presidente del Consiglio dei ministri e del Ministro della giustizia e sono successivamente trasmessi alle Camere per l&#8217;espressione del parere delle Commissioni parlamentari competenti. Decorsi sessanta giorni dalla data della trasmissione, i decreti possono essere emanati anche in mancanza dei pareri. Qualora detto termine venga a scadere nei trenta giorni antecedenti alla scadenza del termine previsto per l&#8217;esercizio della delega o successivamente, quest&#8217;ultimo è prorogato di sessanta giorni.</em> <em>3. Nell&#8217;esercizio della delega di cui al comma 1, il Governo si attiene ai seguenti princìpi e criteri direttivi:</em> <em>a) individuare ipotesi per le quali appare necessario dettare il regime giuridico dell&#8217;utilizzo di dati, algoritmi e metodi matematici per l&#8217;addestramento di sistemi di intelligenza artificiale, nonché i diritti e gli obblighi gravanti sulla parte che intenda procedere al suddetto utilizzo;</em> <em>b) prevedere strumenti di tutela, di carattere risarcitorio o inibitorio, e individuare un apparato sanzionatorio per il caso di violazione delle disposizioni introdotte ai sensi della lettera a);</em> <em>c) </em><em>attribuire alle sezioni specializzate in materia di impresa le controversie relative alla disciplina introdotta ai sensi delle lettere a) e b).</em> A tal  riguardo la Settima Commissione del CSM nella delibera n.118/VV/2024, cit. n. 544, ha auspicato che<em> “mentre sono in corso le sperimentazioni dell’IA applicata alla giurisdizione in tutti i maggiori ordinamenti giuridici europei &#8211; il Ministero della Giustizia italiano eserciti le prerogative previste dall’art.110 della Costituzione Il ruolo attribuito per legge al Ministero per tutti i sistemi di IA, anche relativo ad attività amministrative ed accessorie, prevede che il Ministero autorizzi e monitori a livello sperimentale le applicazioni studiate e in uso (vedi i progetti PON Governance, il sistema di certificazione dell’impiego di IA, ecc.) che assicurino in modo rigoroso due requisiti ovvero la sicurezza della rete giustizia e la tutela dei dati sensibili e della privacy. Da questo punto di vista sarebbe utile che il Ministero &#8211; dopo aver messo a disposizione degli uffici giudiziari i risultati delle sperimentazioni in corso con la rete dei RID e dei MAGRIF sotto la supervisione della STO (diretta articolazione consiliare) &#8211; valuti la possibilità di commissionare la realizzazione di un sistema di IA interno al sistema giustizia auspicabilmente pronto prima di agosto 2026 per essere fruito da tutti i magistrati ordinari.”</em></p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/">Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</title>
		<link>https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Mon, 16 Jun 2025 14:02:36 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=89800</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/">La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</a></p>
<p>Giada Maria De Stephanis La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente. Nota a Consiglio di Stato, Sez. IV, sentenza 4 giugno 2025, n. 4857. ABSTRACT: La sentenza del Consiglio di Stato, Sez. IV del 4 giugno 2025 n. 4857 si inserisce nel dibattito sempre più attuale e</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/">La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/">La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</a></p>
<p style="text-align: justify;"><strong>Giada Maria De Stephanis</strong></p>
<p>La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</p>
<p>Nota a Consiglio di Stato, Sez. IV, sentenza 4 giugno 2025, n. 4857.</p>
<p style="text-align: justify;">ABSTRACT: La sentenza del Consiglio di Stato, Sez. IV del 4 giugno 2025 n. 4857 si inserisce nel dibattito sempre più attuale e complesso relativo all’utilizzo degli algoritmi nei procedimenti amministrativi. Essa assume rilievo sistematico per avere delineato con chiarezza e rigore argomentativo i criteri distintivi tra l’uso di strumenti informatici a supporto dell’attività amministrativa e le decisioni amministrative automatizzate <em>tout court</em>, affrontando nondimeno la questione della conoscibilità del <em>software</em> utilizzato con la richiesta al codice sorgente. Sebbene l’evoluzione normativa e giurisprudenziale stia prontamente rispondendo ad alcuni dei problemi applicativi posti delle nuove tecnologie, permangono criticità rispetto all’effettiva portata degli strumenti utilizzati e i loro riflessi sul procedimento amministrativo.</p>
<p style="text-align: justify;"><strong>Sommario: 1. Il caso di specie. – 2. Distinzione tra supporto e automatizzazione decisionale.  – 3. Accesso difensivo al codice sorgente. – 4. Alcune considerazioni a margine in materia di procedimento amministrativo algoritmo e trasparenza delle decisioni.</strong></p>
<p><strong>1. Il caso di specie </strong></p>
<p style="text-align: justify;">La controversia trae origine da una procedura aperta in modalità telematica per l’affidamento dell’appalto del servizio di lavorazione rifiuti presso le piattaforme di valorizzazione indetta dalla Srt s.p.a. Esclusa dalla procedura di gara per <em>«</em><em>mancato rispetto delle Regole per la presentazione dell’offerta ovvero mancata corrispondenza dell’impronta digitale dei documenti di offerta trasmessi con quella assegnata dal sistema in fase di conferma di partecipazione»</em>, la Teknoservice s.r.l. ha richiesto l’accesso agli atti, tra cui la copia del codice sorgente della piattaforma di e-procurement Acquisti Telematici adoperata per la conduzione delle operazioni di gara, programma certificato da Agid, Anac e Acn. Avverso il provvedimento di diniego – unitamente al provvedimento di esclusione e gli atti di gara – la Teknoservice s.r.l. ha proposto dinanzi al T.a.r. Piemonte istanza ai sensi dell’art. 116, 2° comma, c.p.a., chiedendo di «<em>accertare e dichiarare il diritto d’accesso della ricorrente agli atti e documenti domandati in ostensione, condannando le parti intimate a concedere copia di quanto richiesto in sede di accesso»</em>. Il T.a.r. ha respinto l’istanza e la Teknoservice s.r.l. ha, dunque, proposto appello, deducendo la violazione e falsa applicazione dell’art. 97 cost., degli artt. 22 s.s. della l.n. 241/1990 e dell’art. 30 del d.lgs. n. 36/2023. Il Consiglio di Stato ha respinto l’appello, precisando che, con riferimento agli algoritmi aventi funzione meramente strumentale, il diritto di accesso prevale sul diritto alla riservatezza aziendale «<em>solo quando sia indispensabile e strettamente strumentale alla difesa in giudizio del richiedente, nell&#8217;ambito della procedura di affidamento del contratto.In altri termini, con l&#8217;</em><a href="https://onelegale.wolterskluwer.it/normativa/10LX0000941816ART62?pathId=aed6b81f5eb368"><em>art. 35</em></a><em>, commi 4 e 5, </em><a href="https://onelegale.wolterskluwer.it/normativa/10LX0000941816SOMM?pathId=aed6b81f5eb368"><em>D.Lgs. n. 36 del 2023</em></a><em>, il legislatore ha previsto, a tutela dei diritti di privativa intellettuale relativi alle piattaforme digitali utilizzate nelle procedure di gara (qual è quella, nel caso di specie, utilizzata da D.), un divieto di accesso e di ogni forma di divulgazione della stessa, incluso, quindi il suo codice sorgente; tale divieto può essere superato, nel bilanciamento dei contrapposti interessi, solamente se il concorrente che chiede l&#8217;accesso ne dimostri l&#8217;indispensabilità ai fini della difesa in giudizio». </em></p>
<p style="text-align: justify;">La sentenza del Consiglio di Stato in commento offre una preziosa occasione per riflettere su una distinzione centrale e ormai ineludibile nella disciplina dell’azione amministrativa digitalizzata: quella tra decisione algoritmica e algoritmo di mero supporto. Tale discrimine, lungi dall’essere meramente concettuale, ha conseguenze giuridiche rilevanti, soprattutto avuto riguardo all’applicabilità delle garanzie difensive, tra cui spicca, per importanza, il diritto di accesso agli atti, il quale si estende anche al codice sorgente del <em>softwar</em>e utilizzato. È bene procedere con ordine.</p>
<p><strong>2. Distinzione tra supporto e automatizzazione decisionale </strong></p>
<p style="text-align: justify;">L’utilizzo di strumenti tecnologici, ivi inclusi quelli basati sull’Intelligenza Artificiale, per la semplificazione del procedimento amministrativo non integra di per sé una decisione algoritmica. Questa la conclusione cui giunge il Consiglio di Stato, distinguendo limpidamente le c.d decisioni algoritmiche dagli algoritmi di mero supporto all’attività amministrativa, ritenendo che solo ai primi si applichi l’art. 30, 2° comma, lett. a) del D. Lgs. n. 36/2023, ai sensi e per gli effetti del quale «<em>nell’acquisto o nello sviluppo delle soluzioni di cui al comma 1° le stazioni appaltanti e gli enti concedenti: a) assicurano la disponibilità del codice sorgente, della relativa documentazione, nonché di ogni altro elemento utile a comprenderne le logiche di funzionamento</em>».</p>
<p style="text-align: justify;">In particolare, il sopracitato art. 30, 2° comma, lett. a) del Codice dei Contratti Pubblici mostra un deciso <em>favor</em> per gli algoritmi <em>open source</em> rispetto a quelli proprietari e, in ogni caso, assicura «<em>la disponibilità del codice sorgente, prevedendo inoltre che, nei casi di decisione algoritmica, la motivazione del provvedimento finale deve richiamare il codice sorgente e il modello matematico impiegati, salva la possibilità per l’interessato di esercitare il diritto di accesso documentale a “documenti” ed anche al data set</em>»<em>.</em></p>
<p style="text-align: justify;">Tanto premesso, secondo il Consiglio di Stato deve escludersi l’applicabilità, nel caso di specie, dell’art. 30, 2° comma, lett. a) del Codice dei Contratti Pubblici, disposizione che, rammenta, recepisce i principi elaborati dalla giurisprudenza in materia di decisioni algoritmiche – segnatamente, i principi di trasparenza, non esclusività della decisione algoritmica e non discriminazione – e che, invece, trova piena applicazione nell’ipotesi di provvedimenti amministrativi adottati mediante utilizzo di sistemi decisionali automatizzati in assenza di un intervento umano significativo (<em>cfr.</em> Cons. Stato, Sez. VI 8 aprile 2019, n. 2270).</p>
<p style="text-align: justify;">Il Collegio ritiene che, nel caso di specie, non si configuri una decisione amministrativa algoritmica in senso proprio, bensì l’impiego di uno strumento algoritmico con funzione meramente strumentale e ausiliaria rispetto al processo decisionale, il quale rimane pertanto integralmente riservato al fattore umano. Si è, in altri termini, in presenza di un sistema informatico di supporto all’attività istruttoria, che non sostituisce, né tantomeno condiziona in modo vincolante, il contenuto dell’atto amministrativo finale, iscrivendosi piuttosto nel solco delle classiche modalità operative dell’azione amministrativa.</p>
<p style="text-align: justify;">A conferma di ciò, il Collegio osserva che il <em>software</em> in questione si limita a effettuare una comparazione tecnica tra parametri informatici, consistenti nelle impronte digitali dei documenti trasmessi, determinati: in una prima fase, mediante la registrazione da parte della piattaforma delle impronte digitali generate al momento della conferma di partecipazione da parte degli operatori economici; in una seconda fase, tramite il confronto tra tali impronte e quelle corrispondenti a <em>file </em>effettivamente caricati in sede di presentazione delle offerte tecniche ed economiche. Il sistema informatico, dunque, restituisce un esito binario, consistente nella rilevzione di conformità o difformità tra le impronte digitali, fornendo tale risultato alla Stazione appaltante e, in particolare, alla Commissione giudicatrice, che resta pienamente titolare del potere decisionale. Sulla base di tali considerazioni, è stata confutata la tesi dell’appellante secondo cui nel caso in esame il <em>software</em> avrebbe compiuto decisioni automatizzate in luogo della commissione di gara, provvedendo all’automatica esclusione dell’operatore economico.</p>
<p style="text-align: justify;">Ebbene, la natura meramente ausiliaria dell’algoritmo in esame ha consentito di differenziare nettamente la presente fattispecie da quelle richiamate dalla parte appellante, ove, ad esempio, la giurisprudenza ha riconosciuto il diritto di accesso al codice sorgente di <em>software</em> decisionali che determinavano in modo automatico l’assegnazione di sedi nel contesto della mobilità del personale docente, in assenza di motivazione, con compressione delle preferenze espresse e in difetto dei più elementari requisiti di trasparenza <em>(cfr.</em> Cons. Stato, Sez. VI 2 gennaio 2020, n. 30). In tali casi, si è correttamente ritenuto che l’impiego di strumenti automatizzati non possa costituire un pretesto per eludere i principi fondamentali che regolano l’azione amministrativa in uno Stato di diritto.</p>
<p style="text-align: justify;">Tirando le somme, secondo l’insegnamento del Consiglio di Stato, deve ritenersi che si è in presenza di una decisione algoritmica automatizzata ogni qualvolta l’algoritmo assuma un ruolo sostitutivo rispetto all’ordinaria sequenza procedimentale, finendo per assumere la natura di elemento funzionalmente determinante il contenuto dell’atto amministrativo. Detto in altri termini, è corretto parlare di decisioni algoritmiche quando il sistema informatico sostituisce integralmente l’attività valutativa della P.A, costituenedo di fatto l’unica fonte del contenuto dell’atto. Ritiene il Collegio che si ha invece un algoritmo di mero supporto quando esso fornisce un ausilio tecnico che lascia impregiudicata la valutazione finale dell’organo competente. Nel primo caso, l’intervento umano è assente o puramente formale, rendendo necessario un elevato livello di trasparenza dell’intero processo automatizzato, con conseguente applicazione delle specifiche garanzie previste dall’art. 30, 2° comma, lett. a), D. Lgs. n. 36/2023; mentre nel secondo caso, invece, permane un controllo umano significativo, incidendo sulla disciplina applicabile.</p>
<p><strong>3. Accesso difensivo al codice sorgente </strong></p>
<p style="text-align: justify;">Il codice sorgente rappresenta, in breve, <em>«la versione di un algoritmo scritta in un linguaggio di programmazione ad alto livello (ossia più vicino al linguaggio umano, tipicamente in pseudo inglese), le cui istruzioni sono poi eseguite dalla macchina mediante appositi programmi» </em>(Treccani, Enciclopedia della Scienza e della Tecnica, 2008). In via esemplificativa, esso è funzionale all’esecuzione di operazioni stabilite attraverso il linguaggio di programmazione selezionato, utilizzando un insieme definito e limitato di istruzioni.</p>
<p style="text-align: justify;">La giurisprudenza amministrativa si è dimostrata tendenzialmente favorevole al riconoscimento del diritto di accesso ai codici sorgente impiegati nei procedimenti amministrativi automatizzati.</p>
<p style="text-align: justify;">In tal senso, è pacificamente riconosciuta la natura giuridica del codice sorgente quale documento amministrativo <em>ex</em> art. 22, 1° comma, lett. d), della Legge n. 241 del 1990 (<em>cfr.</em> T.a.r. Lazio, Sez III <em>bis</em>, sentt. nn. 3769/2016; n. 374/2017; 7769/2021), il quale definisce come tale ogni rappresentazione grafica, fotocinematografica, elettromagnetica o di qualunque altra specie del contenuto di atti, anche interni o non relativi ad uno specifico procedimento, detenuti da una P.A. e concernenti attività di pubblico interesse, indipendentemente dalla natura pubblicistica o privatistica della loro disciplina sostanziale. Ebbene, in materia di accesso agli atti della P.A. la qualificazione del codice sorgente quale opera dell&#8217;ingegno non costituisce di per sé motivo ostativo alla sua ostensibilità. Tuttavia, l’accesso è subordinato alla verifica della stretta indispensabilità delle informazioni richieste rispetto alla posizione giuridica da tutelare.</p>
<p style="text-align: justify;">È opportuno ricordare che il legislatore ha inteso circoscrivere l’oggetto della situazione legittimante l’accesso difensivo rispetto all’accesso “ordinario”, esigendo che la stessa, oltre a corrispondere al contenuto dell’astratto paradigma legale, sia anche collegata al documento al quale è chiesto l’accesso (art. 24, 7° comma, della Legge n. 241 del 1990). A tal riguardo, il Collegio richiama quanto stabilito dall&#8217;Adunanza Plenaria 18 marzo 2021, n. 4, e in particolare «<em>la necessità (o la stretta indispensabilità) della conoscenza del documento determina il nesso di strumentalità tra il diritto all&#8217;accesso e la situazione giuridica &#8216;finale’, nel senso che l&#8217;ostensione del documento amministrativo deve essere valutata, sulla base di un giudizio prognostico ex ante, come il tramite &#8211; in questo senso strumentale &#8211; per acquisire gli elementi di prova in ordine ai fatti (principali e secondari) integranti la fattispecie costitutiva della situazione giuridica &#8216;finale’ controversa e delle correlative pretese astrattamente azionabili in giudizio</em>»<em>. </em>Come meglio chiarito, questa esigenza è soddisfatta dal successivo art. 25, 2° comma, della Legge n. 241 del 1990, ai sensi del quale la richiesta di accesso ai documenti deve essere motivata. In questa prospettiva, il Supremo Consesso ha escluso che possa ritenersi sufficiente un generico riferimento a non meglio precisate esigenze probatorie o difensive, poiché l’ostensione del documento passa attraverso un rigorso vaglio circa il nesso di strumentalità necessaria fra la documentazione richiesta e la situazione finale controversa.</p>
<p style="text-align: justify;">Da quanto detto, emerge come la valutazione di stretta indispensabilità costituisca il criterio che regola il rapporto tra accesso difensivo e tutela della segretezza industriale e commerciale già sul piano della normativa generale.</p>
<p style="text-align: justify;">Ma vi è di più; il Giudice ricorda infatti che in materia di accesso difensivo, è il legislatore stesso a prevedere un’esclusione basata su un giudizio valutativo di tipo comparativo di composizione degli interessi confliggenti facenti capo al richiedente e, rispettivamente, al controinteressato, modulato in ragione del loro grado di intensità. In particolare, l’art. 24 della Legge 7 agosto n. 241 del 1990 declina il rapporto tra accesso difensivo e riservatezza entro due regole di valutazione: con riferimento ai dati sensibili e giudiziari, l’accesso è consentito nei limiti in cui sia strettamente indispensabile; in caso di dati idonei a rilevare lo stato di salute e la vita sessuale, se la situazione giuridicamente rilevante che si intende tutelare con la richiesta di accesso sia di rango almeno pari ai diritti dell’interessato, ovvero consista in un diritto della personalità o in un altro diritto o libertà fondamentale</p>
<p style="text-align: justify;">Ebbene, per quanto riguarda i <em>software</em> impiegati dalle stazioni appaltanti e dagli enti concedenti, l’art. 35, 4° e 5° comma, del D. Lgs. n. 36/2023 ne ammette l’accesso, sebbene coperti da diritti di privativa intellettuale, purché esso sia indispensabile ai fini della difesa in giudizio. In altri termini, il legislatore, nel bilanciamento di contrapposti interessi – in caso di conflitti – sembra ritenere che la conoscenza del codice sorgente, ancorché coperto da brevetto, sia essenziale per garantire la tracciabilità e verificabilità degli algoritmi impiegati nelle procedure automatizzate, in linea con il minimo dovere esplicativo richiesto dalle raccomandazioni europee in materia di Intelligenza Artificiale.</p>
<p style="text-align: justify;">In termini generali, la nozione di &#8220;indispensabilità&#8221;, cui il codice appalti subordina l&#8217;accesso in presenza di informazioni riservate, deve essere interpretata nel senso di insussistenza di altri mezzi di prova idonei a dimostrare i fatti oggetto di contesa tra le parti, sicché la mera volontà di verificare e sondare – come è nel caso di specie – integra un accesso &#8220;meramente esplorativo&#8221;, privo della dimostrazione di una specifica e concreta necessità delle informazioni ai fini dell’esercizio del diritto di difesa, indispensabile per giustificare il sacrificio dei diritti di privativa industriale e intellettuale.</p>
<p style="text-align: justify;">In estrema sintesi, la sentenza del Consiglio di Stato ribadisce che l’utilizzo di strumenti informatici non implica automaticamente l’adozione di decisioni algoritmiche in senso stretto, e che solo in quest’ultimo caso si applicano le rigorose prescrizioni di trasparenza previste dall’art. 30 del Codice dei Contratti Pubblici. Al contrario, in presenza di un supporto tecnico non vincolante, l’intervento umano resta determinante e la disciplina dell’accesso si fonda sulla prova della stretta indispensabilità, secondo quanto stabilito dall’art. 35.</p>
<p><strong>4. Alcune considerazioni a margine in materia di procedimento amministrativo algoritmico e trasparenza delle decisioni</strong></p>
<p style="text-align: justify;">Come ormai noto, l’uso delle nuove tecnologie nell’organizzazione e nell’azione amministrativa costituisce un fondamentale principio del nuovo diritto amministrativo, conformemente ai principi di efficienza ed economicità, e, in tale direzione, deve essere letto l’art. 3 <em>bis</em> della Legge n. 241 del 1990, inserito a seguito della novella del 2005.</p>
<p style="text-align: justify;">Nondimeno, l’introduzione massiccia di strumenti digitali nei procedimenti amministrativi ha sollevato – <em>rectius</em>, continua a sollevare – plurimi interrogativi di rilievo sistemico, in particolare quando i sistemi informatici non si limitano a mere infrastrutture tecniche, ma si innestano nel circuito valutativo e discrezionale dell’amministrazione. In tale contesto, la distinzione tra automatizzazione e mero supporto all’attività assume un significato dirimente, elevandosi a parametro essenziale per delimitare il campo di applicazione delle garanzie difensive previste dall’ordinamento a tutela dei cittadini nei procedimenti amministrativi che li riguardano.</p>
<p style="text-align: justify;">Nel caso in esame, il Consiglio di Stato ha ribadito che, in assenza di un intervento decisionale dell’algoritmo, non si configura una decisione automatizzata, bensì una procedura informatica con funzione ausiliaria. L’algoritmo in questione infatti si limita a constatare un fatto, lasciando inalterato il potere valutativo dell’amministrazione. Questa impostazione conduce, rispettivamente, a una diversa configurazione del diritto di accesso: mentre nel caso del mero supporto non si applica l’art. 30, 2° comma, lett. a), del D. Lgs. n. 36/2023, nelle decisioni algoritmiche in senso stretto l’accesso al codice sorgente prevale sulle esigenze di riservatezza e proprietà intellettuale, anche laddove siano utilizzati dei <em>software</em> proprietari.</p>
<p style="text-align: justify;">Si è già ampiamente osservato come il legislatore nella più recente evoluzione normativa abbia espresso un chiara preferenza per i c.d. <em>open data</em>, rispetto ai <em>sotware</em> proprietari, nell’ambito di una più ampia politica del libero accesso. Nel c.d. Codice dell’amministrazione digitale (Decreto Legislativo 7 marzo 2005 , n. 82), i dati di tipo aperto sono caratterizzati, anzitutto, dalla disponibilità secondo i termini di una licenza o di una previsione normativa; in secondo luogo, dalla accessibilità attraverso tecnologie dell’informazione e della comunicazione; infine, dalla disponibilità gratuita o a costi marginali sostenuti per la riproduzione e divulgazione<strong>. </strong>Ebbene, la differenza principale tra <em>open data</em> e <em>software</em> proprietari sta nella sostanziale indisponibilità al pubblico dei secondi; mentre gli <em>open data</em> si traducono in accesso e trasparenza dei dati della pubblica amministrazione.</p>
<p style="text-align: justify;">In questa cornice, il principale profilo problematico è proprio quello legato al principio di trasparenza amministrativa, tradizionalmente ancorato alla conoscibilità dell’<em>iter</em> logico e giuridico della decisione, il quale si confronta ora con la necessità di una nuova forma di trasparenza algoritmica, ideona a rendere intelligibile non solo l’esito, ma altresì la struttura, le logiche decisionali e i dati di <em>input</em> del sistema informatico utilizzato.</p>
<p style="text-align: justify;">A tal riguardo, è utile evidenziare che quanto maggiormente l’algoritmo utilizzato risulta opaco, difficilmente comprensibile o inaccessibile, tanto più l’asimmetria informativa tra amministrazione e cittadini si acuisce. Ne deriva che, al di là delle mere enunciazioni di principio, la concreta ed effettiva possibilità per il privato di comprendere e contestare le decisioni amministrative può risultare gravemente compromessa.</p>
<p style="text-align: justify;">Cionondimeno, la mera conoscibilità dell’esistenza di un algoritmo non produce effetto alcuno se non accompaganata dalla effettiva capacità di decifrarne la logica, come è  stato anche largamente rappresentato dal Consiglio di Stato in commento. Per tale ragione, il principio di conoscibilità deve essere integrato necessariamente con quello di comprensibilità, il quale può essere tradotto nient’altro che nel diritto di ricevere informazioni significative sulla logica dell’algoritmo.</p>
<p style="text-align: justify;">Orbene, un diritto del genere presuppone, in ogni caso, che gli algoritmi abbiano una logica deterministica-matematica, con connessioni verificabili tra principi generali e applicazioni basate sul principio di causalità. A ben vedere, molti degli algoritmi di nuova generazione si basano su relazioni statistiche e non causali e producono criteri di inferenza spesso incomprensibili e difficilmente tracciabili, rendendo particolarmente complessa – se non impossibile – la ricostruzione dell’<em>iter </em>seguito dall’algoritmo per raggiungere il risultato finale. In particolare, l’utilizzo di algoritmi basati sul machine learning non supervisionato comporta una sfida significativa, risultando estremamente difficile ricostruire a posteriori i dati su cui tali sistemi hanno operato. Tutto ciò comporta una sostanziale mancanza di trasparenza nelle inferenze generate, con il concreto pericolo che esse non possano essere adeguatamente giustificate o spiegate.</p>
<p style="text-align: justify;">Ci troviamo di fronte a sistemi opachi per definizione, in cui la pretesa di trasparenza rischia di ridursi a mera facciata formale, rischiando l’algoritmo di presentarsi come il nuovo oracolo di Delfi del diritto.</p>
<p style="text-align: justify;">In via conclusiva, la sentenza in commento pone una pietra miliare nel consolidamento del principio per cui l’intervento umano effettivo è ciò che distingue un algoritmo di supporto da uno decisionale, ma lascia aperti non irrilevanti scenari per il futuro. Essa, infatti, rischia di non prendere sufficientemente in considerazione i pericoli insiti nell’adottare decisioni sulla base di algoritmi, sia pure di mero supporto, che si assumono essere imparziali e che potrebbero, invero, presentare malfuzionamenti o non essere del tutto imparziali. Senza alcuna pretesa di esaustività, è probabile che in un futuro prossimo il diritto amministrativo sarà chiamato a riconoscere l’influenza sostanziale dell’algoritmo anche in assenza di un suo ruolo formalmente “decisivo”.</p>
<p style="text-align: justify;">Il rischio, altrimenti, sarà quello di una nuova forma di automatismo mascherato basato solo su una presunta neutralità tecnica, in cui la discrezionalità umana sopravvive come paravento, e i diritti del cittadino – a cominciare dalla possibilità di comprendere e contestare le decisioni dell’autorità – vengono sacrificati sull’altare dell’efficienza tecnologica.</p>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;">
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/">La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</title>
		<link>https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Thu, 08 May 2025 15:39:36 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=89635</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/">PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</a></p>
<p>(Commento all’Opinion n. 8 del 2024 dell’European Data Protection Board) di Francesco Midiri   Sommario: 1. L’Opinion n. 8 del 2024 dell’European Data Protection Board; 2. Le regole introdotte dall’Opinion: il presupposto di applicazione della data protection come trattamento di dati non anonimizzati; 3. Le regole imposte dall’utilizzo della base</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/">PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/">PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</a></p>
<p style="text-align: justify;">(Commento all’Opinion n. 8 del 2024 dell’European Data Protection Board)</p>
<p style="text-align: justify;">di <strong>Francesco Midiri</strong></p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Sommario: <em>1. L’Opinion n. 8 del 2024</em> <em>dell’European Data Protection Board; 2. Le regole introdotte dall’Opinion: il presupposto di applicazione della data protection come trattamento di dati non anonimizzati; 3. Le regole imposte dall’utilizzo della base giuridica di trattamento del legittimo interesse; 4. Alcune considerazioni finali.</em></p>
<p style="text-align: justify;"><em> </em></p>
<ol style="text-align: justify;">
<li><em> L’Opinion n. 8 del 2024 dell’European Data Protection Board</em></li>
</ol>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Con l’“<em>Opinion n. 8/2024 on certain data protection aspects related to the processing of personal data in the context of AI models</em>” (adottata il 17 dicembre 2024) l’EDPB ha introdotto una serie di nuove regole di protezione dei dati personali per il funzionamento di “sistemi” che utilizzano modelli di IA<a href="#_ftn1" name="_ftnref1">[1]</a>, regole che, sostanzialmente, si aggiungono al recente regolamento europeo relativo a quest’ultima materia (Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024).<a href="#_ftn2" name="_ftnref2">[2]</a></p>
<p style="text-align: justify;">Il provvedimento è stato adottato sulla base dell’art. 64, par. 2, del GDPR (Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016) &#8211; che consente all’EDPB (se richiesto da un’Autorità di protezione dei dati personali nazionale) di emettere pareri sostanzialmente vincolanti su questioni di applicazione generale o che producono effetti in più di uno Stato membro &#8211; e scaturisce da quattro quesiti dell’Autorità irlandese per la <em>privacy</em>, relativi a questioni di applicazione delle regole della protezione dei dati personali a “modelli” di IA<a href="#_ftn3" name="_ftnref3">[3]</a>. Più precisamente, è stato chiesto all’EDPB se un modello di IA utilizzi realmente dati personali e, quindi, se debba essere sottoposto alla relativa normativa. In caso di risposta affermativa, l’Autorità europea è stata chiamata a considerare se il c. d. “legittimo interesse” possa costituire una base giuridica adeguata (escludendo, così il consenso dell’interessato) e quali caratteristiche debba avere.</p>
<p style="text-align: justify;">Rispondendo a queste domande, come anticipato, l’Autorità europea ha introdotto nuove regole che, imposte dal trattamento delle informazioni personali (che ne costituisce presupposto di applicazione), si aggiungono alle regole europee che disciplinano il funzionamento dei sistemi di IA e ne condizionano l’applicazione. In questo senso, l’EDPB non pare avere esteso o caratterizzato le regole generali di <em>data protection</em> nella dimensione della IA, ma pare averne creato di nuove, concepite <em>ad hoc</em> per questo nuovo ambito tecnologico. Così, sono state introdotte regole di protezione dei dati che configurano una sorta di disciplina fondamentale, non solo europea<a href="#_ftn4" name="_ftnref4">[4]</a>, dell’attività dei sistemi di IA.</p>
<p style="text-align: justify;">A <em>latere</em> di tutto ciò, si consideri che l’Autorità ha dettato queste regole indirizzandole esplicitamente al trattamento dei dati personali realizzato da modelli di IA nei quali la macchina, svolgendo sequenze di funzioni matematiche riferite ai dati introdotti, elabora più o meno autonomamente, attraverso una fase c. d. di <em>training</em>, lo stesso modello che la dovrà fare funzionare (essenzialmente si tratta delle reti neurali in grado di autodeterminare le regole del proprio apprendere e del proprio fornire soluzioni operative definite anche modelli di <em>deep learning</em> o di <em>machine learning</em>, definizioni con le quali si  allude al fatto che la macchina impara da sola ad elaborare soluzioni attraverso passaggi di calcolo nascosti all’utente e spesso irrecuperabili)<a href="#_ftn5" name="_ftnref5"><sup>[5]</sup></a>. Parrebbero esclusi, invece, i modelli introdotti dal programmatore nella macchina la quale, poi, si “limita”, seguendo le istruzioni impartite e utilizzando <em>big data</em>, a dedurre logicamente le soluzioni operative<a href="#_ftn6" name="_ftnref6"><sup>[6]</sup></a>. L’EDBP, peraltro, chiarisce che l’avere fatto riferimento esclusivamente a modelli di <em>machine learning</em> deriva dal quesito proposto dalla Autorità irlandese e che, quindi, le nuove regole elaborate sono applicabili ad ogni “modello” di IA che tratta dati personali (praticamente tutti) e, correlativamente, anche ai “sistemi” di IA<a href="#_ftn7" name="_ftnref7">[7]</a>. Infatti, nonostante le sue descrizioni e classificazioni, si afferma che “<em>in line with the Request, the scope of this Opinion only covers the subset of AI models that are the result of a training of such models with personal data</em>”.</p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;" start="2">
<li><em> Le regole introdotte dall’Opinion: il presupposto di applicazione della data protection come trattamento di dati non anonimizzati.</em></li>
</ol>
<p style="text-align: justify;"><em> </em></p>
<p style="text-align: justify;">Venendo alle regole introdotte dall’Opinion, l’Autorità ha determinato innanzitutto in quali casi un sistema di IA realizza un trattamento di dati personali e, per questo, deve essere sottoposto all’applicazione della <em>data protection</em>. A tale fine, con un argomentazione <em>a contrario</em>, ha chiarito in quali casi lo sfruttamento delle informazioni è effettuato anonimizzando completamente i dati personali che sfrutta e, quindi, in quali circostanze è possibile disattendere gli obblighi e le prescrizioni di <em>data protection</em>. Nella ricostruzione dell’Autorità l’anonimizzazione, infatti, è l’unica via di uscita dal sistema normativo di protezione dei dati personali perché è l’unico strumento che rende il trattamento automatizzato inoffensivo sul piano dei diritti della persona<a href="#_ftn8" name="_ftnref8"><sup>[8]</sup></a>. </p>
<p style="text-align: justify;">Dal punto di vista tecnico dell’EDPB, i modelli di IA, soprattutto quelli di <em>deep learning</em> e di <em>machine learning</em>, conservano traccia dei dati personali utilizzati nel processo di <em>training</em> (quelli degli utenti dei sistemi ma anche quelli di soggetti terzi). Per potere affermare la piena anonimizzazione, allora, è necessario dimostrare che le informazioni personali sfruttate non siano in alcun modo recuperabili, neanche attraverso nuovi processi di analisi dei modelli. Allo stesso modo, le indicazioni di <em>output</em> fornite dalla macchina non debbono essere in alcun modo riferite a persone i cui dati sono stati sfruttati nel <em>training</em>.</p>
<p style="text-align: justify;">Naturalmente, fedele alla filosofia dell’<em>accountability<a href="#_ftn9" name="_ftnref9"><sup><strong>[9]</strong></sup></a></em>, l’Autorità ha obbligato gli sviluppatori dei sistemi (considerati titolari di trattamento) a dimostrare l’avvenuta anonimizzazione ma ha fornito, a questo proposito, alcune importanti indicazioni operative. E’ necessario, innanzitutto, realizzare una valutazione del rischio che i dati personali possano essere estratti o derivati da una analisi del funzionamento e dalle operazioni svolte dai modelli; la valutazione deve considerare la migliore tecnologia disponibile; si deve tenere conto del rischio di accesso ai dati anche ad opera di terzi estranei. In sostanza, può essere affermata l’avvenuta anonimizzazione solo quando sia insignificante la probabilità di accedere alle informazioni personali analizzando (anche attraverso accessi esterni non autorizzati) i processi di <em>training</em> del modello di IA<a href="#_ftn10" name="_ftnref10"><sup>[10]</sup></a>.</p>
<p style="text-align: justify;">Per concludere sul punto, l’EDPB ha riaffermato nella dimensione della IA la regola generale secondo la quale l’effetto naturale dell’utilizzo di informazioni personali è l’applicazione degli obblighi e delle garanzie del GDPR, a meno che non si dimostri la sostanziale impossibilità di recuperare le informazioni e ricollegarle a persone fisiche determinate. Nel medesimo tempo, sul piano normativo, ha imposto una serie di modalità tecniche specifiche per affermare l’avvenuta anonimizzazione, modalità che costituiscono l’unica <em>exit strategy</em> per sottrarsi all’applicazione del GDPR.</p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;" start="3">
<li><em> Le regole imposte dall’utilizzo della base giuridica di trattamento del legittimo interesse.</em></li>
</ol>
<p style="text-align: justify;"><em> </em></p>
<p style="text-align: justify;">Il documento ha considerato, poi, se la realizzazione di un c. d. “legittimo interesse”, di cui all’art. 6, comma 1, lett. f), GDPR, possa rappresentare una base giuridica adeguata per potere effettuare lecitamente il trattamento dei dati personali, nello sviluppo o nell’utilizzo di un modello di IA. In altri termini, ci si è chiesto se sia possibile sfruttare informazioni personali anche prescindendo dalla volontà della persona a cui esse si riferiscono (come accade quando l’interessato presta il proprio consenso al trattamento dei dati o richiede la conclusione o l’esecuzione di un rapporto giuridico che rende necessario il loro utilizzo).<a href="#_ftn11" name="_ftnref11"><sup>[11]</sup></a></p>
<p style="text-align: justify;">Per l’Autorità, anche in materia di modelli di IA, il perseguimento di un legittimo interesse,   può rappresentare la base giuridica adeguata per il trattamento lecito dei dati. Tuttavia, secondo il principio di <em>accountability</em>, il titolare deve dimostrare, da un lato, che il legittimo interesse ha specifiche caratteristiche, essenzialmente quella di prevalere sulle posizioni soggettive degli interessari senza rappresentarne una sostanziale violazione, e, dall’altro, che lo sfruttamento dei dati avviene secondo modalità determinate dalla <em>data protection</em> che, pur in assenza del consenso dell’interessato, lo rendono tollerabile.<a href="#_ftn12" name="_ftnref12"><sup>[12]</sup></a> Tutti questi elementi divengono, nella ricostruzione della <em>Opinion</em>, le nuove coordinate di legittimità del trattamento dei dati personali attraverso modelli e sistemi di IA.</p>
<p style="text-align: justify;">Più nello specifico, il documento ha chiarito che si deve sempre considerare se la realizzazione di un determinato legittimo interesse imponga effettivamente un determinato trattamento di dati personali, il quale, in altri termini, deve risultare sempre assolutamente necessario e proporzionato, senza che vi siano modalità di sfruttamento delle informazioni meno intrusive della sfera personale degli interessati: “<em>This is particularly relevant for the development of AI models. When assessing whether the condition of necessity is met, SAs should pay particular attention to the amount of personal data processed and whether it is proportionate to pursue the legitimate interest at stake, also in light of the data minimisation principle</em>”.<a href="#_ftn13" name="_ftnref13"><sup>[13]</sup></a> Così, utilizzare quanti più dati possibile, elemento caratterizzante dei modelli di IA (soprattutto per insegnare agli stessi modelli a “fare tutto”, cioè per impiegarli per un ventaglio non definito a priori di finalità), non è più lecito per definizione, a meno che non se ne dimostri l’assoluta necessità per realizzare gli obiettivi operativi primari dei sistemi.<a href="#_ftn14" name="_ftnref14"><sup>[14]</sup></a></p>
<p style="text-align: justify;">Ma una volta che il titolare di trattamento abbia dimostrato l’esistenza di un interesse collegato inscindibilmente al trattamento dei dati, l’autorità gli impone comunque di valutare ed affermare anche la sua prevalenza rispetto ai diritti degli interessati, per verificare se essi possano essere lecitamente ridimensionati o compressi (il c. d. <em>balancing test</em>). A questo proposito, l’<em>Opinion</em> ha chiarito che, in via generale, un utilizzo scorretto dei modelli di IA (peraltro non solo sul piano della <em>data </em>protection che qui interessa) per essere il legittimo interesse non prevalente rispetto alle posizioni soggettive degli interessari, può pregiudicare i loro diritti fondamentali consolidatesi nel diritto europeo (quali ad esempio la pretesa al controllo dei propri dati, la salvaguardia della propria condizione economica, l’accesso a servizi e posti di lavoro, l’accesso alla sanità ed all’istruzione). Così, l’utilizzo massivo e indiscriminato di dati personali può generare, nelle persone, un senso di sorveglianza o meccanismi di autocensura (in violazione della libertà di espressione dell’art. 11 della Carta dei diritti dei cittadini europei); la possibilità di trarre dati personali dai modelli, anche attraverso attacchi esterni, conduce a furti di identità, frodi, od al disvelamento di appartenenza a strutture associative (in violazione degli art. 7 e 8 della Carta); la presentazione di contenuti inappropriati a soggetti fragili può mettere in pericolo la loro serenità mentale (in violazione dell’art. 3 della Carta); l’utilizzo di modelli discriminatori può pregiudicare la vita lavorativa o sociale (in violazione degli artt. 15 e 21)<a href="#_ftn15" name="_ftnref15"><sup>[15]</sup></a>.</p>
<p style="text-align: justify;">In questa parte, l’EDPB ha chiarito, così, che un utilizzo illecito di modelli di IA, perché non sostenuto da un’adeguata base giuridica di legittimo interesse, non può essere considerato una mera irregolarità formale priva di lesività ma, al contrario produce un impatto reale sulle libertà fondamentali. </p>
<p style="text-align: justify;">In via consequenziale, l’<em>Opinion</em> ha elaborato regole per garantire che il trattamento dei dati, &#8211; pur necessario e proporzionato per realizzare un interesse giuridicamente prevalente in astratto &#8211; non risulti eccessivamente impattante in concreto, anche considerando il contesto in cui esso viene realizzato. A questo proposito, il fatto che l’interessato, in relazione a vari fattori (le modalità di acquisizione dei dati, il carattere pubblico dei dati, il fatto che siano forniti dall’interessato o tratti dal <em>web</em>, la natura del servizio fornito, la relazione dell’interessato con il titolare, la sede in cui sono conservati i dati, la plausibilità di un utilizzo ulteriore delle informazioni rispetto alle finalità originarie, l’utilizzo dei dati anche per fornire servizi a terzi o per implementare il modello ecc… ) non si attende ragionevolmente che i suoi dati personali vengano impiegati, lo pone in una situazione di debolezza che rende l’eventuale trattamento eccessivamente impattante per definizione.<a href="#_ftn16" name="_ftnref16"><sup>[16]</sup></a> Così, per ricostituire l’equilibrio tra i soggetti coinvolti il titolare di trattamento è obbligato a chiarire all’interessato che tipo di sfruttamento delle informazioni debba aspettarsi. Tuttavia, “<em>while the omission of information can contribute to the data subjects not expecting a certain processing, the mere fulfilment of the transparency requirements set out in the GDPR is not sufficient in itself to consider that the data subjects can reasonably expect a certain processing. Further, simply because information relating to the development phase of an AI model is included in the controller’s privacy policy, it does not necessarily mean that the data subjects can reasonably expect it to happen; rather, this should be analysed by SAs on the specific circumstances of the case and considering all of the relevant factors</em>”.<a href="#_ftn17" name="_ftnref17"><sup>[17]</sup></a></p>
<p style="text-align: justify;">La complessità dell’utilizzo delle informazioni personali, in altri termini, impone allo sviluppatore ed all’utilizzatore di un modello obblighi informativi a “geometria variabile”, commisurati all’aspettativa dell’interessato ed alle potenzialità di impiego del sistema di IA. In questo senso, l’EDPB ha implementato ed arricchito il contenuto delle regole di trasparenza già previste in via generale dal GDPR.<a href="#_ftn18" name="_ftnref18"><sup>[18]</sup></a> Peraltro, sempre in ossequio al principio dell’<em>accountability</em>, ha rimesso in concreto al titolare di trattamento la determinazione e l’applicazione dei nuovi obblighi.</p>
<p style="text-align: justify;">Nel caso in cui, peraltro, nonostante l’applicazione di tutte queste regole di trattamento, il legittimo interesse per il quale vengono utilizzate le informazioni non sembri prevalere chiaramente sui diritti delle persone coinvolte, i modelli di IA, secondo le indicazioni della Autoritò, possono essere utilizzati solo applicando una serie di “<em>Mitigating measures</em>” coniate dall’EDPB, ovvero <em> “safeguards that should be tailored to the circumstances of the case and depend on different factors, including on the intended use of the AI model</em>”.<a href="#_ftn19" name="_ftnref19"><sup>[19]</sup></a> In questo modo, sono stati introdotti obblighi nuovi rispetto a quelli previsti dal GDPR.</p>
<p style="text-align: justify;">Più specificamente, attraverso le misure di mitigazione è stato previsto che intercorra un ragionevole periodo di tempo tra la raccolta dei dati personali ed il loro utilizzo per il <em>training </em>dei modelli, in modo da consentire agli interessati di esercitare i propri diritti di <em>data protection</em> già in questa fase, cioè prima che il trattamento possa recare un pregiudizio effettivo. Inoltre, sono stati attribuiti nuovi contenuti a questi stessi diritti. Infatti, è stato riconosciuto agli interessati il diritto incondizionato di opporsi all’utilizzo dei loro dati dopo la raccolta (“<em>an unconditional ‘opt-out’</em>”), mentre il GDPR ammette l’opposizione solo nel caso in cui i diritti dell’interessato prevalgano sul legittimo interesse del titolare<a href="#_ftn20" name="_ftnref20"><sup>[20]</sup></a>. Ancora, è stato affermato dall’Autorità il diritto alla cancellazione dei dati anche fuori dai presupposti del diritto all’oblio del regolamento europeo di <em>data protection.<a href="#_ftn21" name="_ftnref21"><sup><strong>[21]</strong></sup></a></em> Infine, sono state imposte dallo stesso documento, forme di reclamo adeguate per ogni caso di “<em>data regurgitation or memorisation</em>”.<a href="#_ftn22" name="_ftnref22"><sup>[22]</sup></a></p>
<p style="text-align: justify;">A tutto ciò si aggiunge che l’<em>Opinion</em>, con riguardo al trattamento di dati tramite IA per realizzare un legittimo interesse, ha moltiplicato gli obblighi di informazione originariamente previsti dal GDPR. Le indicazioni dell’Autorità “<em>may help overcoming the information asymmetry and allow data subjects to get a better understanding of the processing involved in the development phase</em>”.<a href="#_ftn23" name="_ftnref23"><sup>[23]</sup></a> A questo proposito, si è imposto che  vengano rese pubbliche informative con contenuti ulteriori rispetto a quelli previsti dagli art. 13 e 14 del GDPR “<em>for instance by providing additional details about the collection criteria and all datasets used, taking into account special protection for children and vulnerable persons</em>”. Inoltre, sono state previste forme di pubblicità ulteriori quali “<em>media campaigns with different media outlets to inform data subjects, information campaign by e-mail, use of graphic visualisation, frequently asked questions, transparency labels and model cards the systematisation of which could structure the presentation of information on AI models, and annual transparency reports on a voluntary basis</em>”.<a href="#_ftn24" name="_ftnref24"><sup>[24]</sup></a></p>
<p style="text-align: justify;">Anche con riguardo alla pratica del <em>web scraping</em> diretto a perseguire un legittimo interesse, sono state introdotte regole importanti. Sul piano tecnico, innanzitutto, si debbono prevedere meccanismi che escludano l’utilizzo di informazioni che – per essere tratte da pubblicazioni particolari – possano porre a rischio determinate persone; debbono essere esclusi siti da cui possono essere tratti dati particolarmente sensibili; debbono essere ignorati siti che si oppongono allo <em>scraping</em>; debbono essere previsti dei criteri di limite alla raccolta basati sul tempo. Ulteriore soluzione ragionevole, per l’EDPB, è quella di imporre liste di <em>opt out</em> che consentano agli interessati, senza condizioni, di opporsi allo sfruttamento dei loro dati tratti da determinati siti o piattaforme.</p>
<p style="text-align: justify;">L’autorità, infine,  si è raccomandata di “<em>to prevent the storage, regurgitation or generation of personal data, especially in the context of generative AI models (such as output filters), and/or to mitigate the risk of unlawful reuse by general purpose AI models (e.g. digital watermarking of AI-generated outputs)</em>”. Soprattutto però, in termini generali, ha imposto  di riconoscere agli interessati diritti di cancellazione dei dati dall’<em>output</em> del modello e dalla deduplicazione, nonchè di introdurre tecniche di rimozione e cancellazione dei dati personali anche “<em>beyond what is required by law</em>”.<a href="#_ftn25" name="_ftnref25"><sup>[25]</sup></a></p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;" start="4">
<li><em> Alcune considerazioni finali </em></li>
</ol>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Sulla base dei contenuti dell’<em>Opinion</em> è possibile trarre alcune considerazioni finali.</p>
<p style="text-align: justify;">In prima battuta, l’autorità europea ha affermato che l’impiego di modelli di IA ha come effetto naturale il trattamento dei dati personali e l’applicazione del GDPR, a meno che non si provi, secondo la migliore tecnologia disponibile, l’anonimizzazione o l’assoluta irrecuperabilità delle informazioni.</p>
<p style="text-align: justify;">Si ha un’inversione dell’onere della prova: non è la dimostrazione dell’avvenuto trattamento di dati in un modello di IA ad importare l’applicazione delle regole di protezione ma il non essere in grado di escluderlo in assoluto (neppure attraverso la riacquisizione od il riutilizzo). In sostanza, gli utilizzatori dei modelli di IA sono stati assogettati agli obblighi di protezione europei a meno che non siano in grado di produrre una prova negativa – l’assenza di trattamento per effetto di un’anonimizzazione e di una cancellazione definitiva delle informazioni – che, date le potenzialità delle soluzioni tecnologiche di IA, appare quantomeno difficoltosa.  </p>
<p style="text-align: justify;">Come si vede, la volontà normativa dell’Autorità è quella di tagliare il nodo gordiano della valutazione della sussistenza del trattamento di dati, imponendo di <em>default</em> le garanzie del GDPR, salva l’<em>exit strategy</em> non agevole della loro anonimizzazione o irrecuperabilità. Il tutto a spostare il baricentro della protezione a vantaggio dei diritti fondamentali degli interessati.</p>
<p style="text-align: justify;">Successivamente, attraverso considerazioni relative ai meccanismi di bilanciamento del legittimo interesse con le posizioni soggettive degli interessati, l’EDPB, sembra avere sfruttato l’occasione per introdurre una serie di nuove regole di protezione che hanno due caratteristiche fondamentali: sono innovative rispetto a quelle previste dalle fonti della <em>data protection</em> ed hanno un contenuto specifico rimesso alla responsabiità ed alla competenza tecnica degli utilizzatori dei modelli di IA.  </p>
<p style="text-align: justify;">In questo quadro, in via generale e preliminare, l’Autorità ha chiarito che non è lecito per definizione acquisire ed utilizzare quante più informazioni possibile dalla rete, anche se questo amplifica le funzionalità dei modelli di IA. Deve rimanere fermo, invece, un rigido canone di necessità e di proporzionalità nello sfruttamento delle informazioni e, quindi, nell’invasione della sfera personale. Il tutto con una rigida predeterminazione delle finalità di trattamento.</p>
<p style="text-align: justify;">Quindi, sulla scorta della posizione di debolezza dell’interessato a cui non è richiesto il  consenso per lo sfruttamento delle informazioni, il principio di trasparenza è stato valorizzato a tal punto da imporre all’utilizzatore di un modello di IA ogni obbligo necessario ad evitare ogni “effetto sopresa” sull’interessato a proposito dello sfruttamento dei suoi dati personali od ogni forma di sudditanza psicologica che induca quest’ultimo a limitare la propria partecipazione sociale digitale. A questo proposito, l’<em>Opinion</em> ha chiarito che non è necessario applicare solo gli obblighi informativi del GDPR ma anche elaborare strumenti nuovi che paiono sconfinare nel campo dell’educazione digitale, con un’azione che sembra essere pedagogica più che di correttezza di rapporto.</p>
<p style="text-align: justify;">In questa prospettiva l’Autorità si è spinta ad introdurre nuove norme, le c. d. misure di mitigazione, che sono estranee alla dimensione della trasparenza ma che proteggono le libertà fondamentali degli interessati, arricchendo i contenuti del diritto alla protezione dei dati personali del GDPR. Ecco allora i termini tra l’acquisizione ed l’utilizzo dei dati, i nuovi diritti di opposizione e cancellazione e le nuove forme di reclamo. Anche in questo caso, poi, è stata rimessa all’autoresponsabilità dei titolari l’introduzione di ulteriori forme di protezione, più efficaci in relazione allo sviluppo tecnologico.</p>
<p style="text-align: justify;">Sono stati inoltre anche previsti rigidi limiti al <em>web scraping</em> (limitandone i tempi e le sedi) per delineare specifiche condizioni di legittimità rispetto alla “pesca a strascico” delle informazioni in <em>internet</em> che non può rappresentare una zona france di trattamento. Nel medesimo tempo, soprattutto con riguardo alla IA generativa, sono state imposte come necessarie forme di limitazione alla riemersione di dati dai modelli ed al loro riutilizzo.</p>
<p style="text-align: justify;">Tutto ciò considerato, l’azione regolatoria dell’autorità europea ha fatto emergere alcuni principi fondamentali in materia di disciplina ma anche di politica del diritto con riferimento ai modelli (ed ai sistemi) di IA.</p>
<p style="text-align: justify;">Sul pressupposto della necessaria applicazione della <em>data protection </em>(dalla quale non si può sfuggire se non attraverso una <em>probatio quasi diabolica</em>), l’IA può essere realizzata ed utilizzata per perseguire gli interessi leciti degli sviluppatori, senza quindi essere assoggettata alle condizioni di legittimità più gravose della normativa europea – come il consenso al trattamento dei dati da parte dell’interessato o l’inquadramento all’interno di rapporti contrattuali che richiedono la rigida determinazione dei presupposti e delle finalità di utilizzo delle informazioni – a patto che tutto ciò avvenga all’interno di una fitta “rete di contenimento” formata da prescrizioni di protezione delineate dalla regolazione ma rimesse, nella determinazione del loro contenuto specifico, alla responsabilità dei tecnici.</p>
<p style="text-align: justify;">Si tratta di un sistema normativo articolato ed aperto che, all’interno di coordinate fondamentali dettate dall’amministrazione indipendente europea (e dai principi generali della normativa), consente di essere continuamente adeguato ed implementato in ragione degli sviluppi tecnologici ma anche delle mutate condizioni di rischio di violazione delle libertà fondamentali. Pare emergere la volontà, che forse avrebbe dovuto essere espressa in maniera esplicita da un intervento normativo del legislatore europeo anche in materia di <em>data protection</em>, di non rallentare lo slancio di uno sviluppo digitale ed operativo ormai irrefrenabile ma, allo stesso tempo, di non ridimensionare il patrimonio continentale dei diritti inviolabili.</p>
<p style="text-align: justify;">Il quadro normativo tracciato sembra essere il migliore compromesso possibile tra la garanzia del progresso tecnologico e quello della tradizione giuridica di protezione della persona e della società. La scelta sembra essere credibile, anche se dovrà necessariamente superare la prova del tempo e delle conseguenze degli sviluppi tecnologici.</p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a> Ma in materia l’EDPB aveva già prodotto EDPB, <em>Report of the work undertaken by the ChatGPT Taskforce</em>, adopted 23 May 2024.</p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a> Sul Regolamento, escludendo l’amplissima letteratura sul progetto, sulla quale basti C. Marenghi,</p>
<p style="text-align: justify;"><em>La proposta di regolamento ue sull&#8217;intelligenza artificiale e la regolazione privata: spunti critici in tema di norme tecniche armonizzate</em>, in <em>Diritto comunitario e degli scambi internazionali</em>, 2021, 563, cfr. G. Finocchiaro, <em>Diritto dell&#8217;intelligenza artificiale</em>, Bologna, 2024; R. Petruso – G. Smorto, <em>Il Regolamento europeo sull’intelligenza artificiale: una prima lettura</em>, in <em>Nuova giurisprudenza civile commentata</em>, 2024, 989. Per un commento sistematico C. N. Pehlivan, N. Forgó, P. Valcke, <em>The EU Artificial Intelligence (AI) Act: a commentary</em>, Deventer, 2025. Sui rapporti tra normativa sulla IA e sulla <em>data protection</em> cfr. P. Falletta, A. Marsano, <em>Intelligenza artificiale e protezione dei dati personali: il rapporto tra Regolamento europeo sull’intelligenza artificiale e GDPR</em>, in <em>Rivista italiana di informatica e diritto</em>, 2024, 119; M, Cappai, <em>Intelligenza artificiale e protezione dei dati personali nel d.d.l. n. 1146: quale governance nazionale?</em>, in <em>federalismi.it</em>, 2024, 30, 186; G. Finocchiaro, <em>Diritto dell’intelligenza artificiale, </em>op. cit. su cui già Id., <em>Intelligenza Artificiale e protezione dei dati personali</em>, in <em>Giurisprudenza Italiana</em>, 2019, 1670.</p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a> L’Autorità irlandese ha chiesto: a) se, in qualche caso, un modello di IA, pur addestrato con informazioni personali, possa essere sottratto dall’applicazione del Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 (di seguito GDPR), nella misura in cui le stesse informazioni possono ritenersi non riconducibili alla figura di dato personale della stessa normativa (ad esempio perché le informazioni sono anonimizzate); b) se il “legittimo interesse” possa essere considerato una condizione di liceità per potere sfruttare dati personali al fine di sviluppare un modello di IA; c) quali caratteri debba avere il “legittimo interesse” per essere condizione sufficiente di liceità di trattamento nel caso di sfruttamento di dati personali nel <em>training</em> di un modello di IA; d) se, quando un modello di IA è stato creato o sviluppato violando le regole di protezione dei dati personali, risulti illecito anche il suo successivo sviluppo o utilizzo.</p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> Si ricordi il c. d. <em>Brussels effect</em>, cioè la naturale tendenza espansiva della normativa europea a condizionare anche fenomeni tecnologici di origine extraeuropea cfr. A. Bradford, <em>The Brussels Effect. How the European Union Rules the World</em>, Oxford, Oxford University Press, 2020.</p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a> Non è questa la sede per illustrare la classificazione tecnica dei vari modelli di IA, ma per riferimenti essenziali P. Traverso, <em>Breve introduzione tecnica all’Intelligenza Artificiale</em>, in <em>DPCE online</em>, 2022, 155, e S. B. Grenci, <em>Le applicazioni di Intelligenza artificiale a supporto dell’automazione del procedimento amministrativo</em>, in <em>Rivista italiana di informatica e diritto, </em>2024, 218, che illustra anche il fenomeno delle <em>black box</em> ovvero dell’impossibilità di recuperare le regole od i meccanismi che governano la macchina (il modello di funzionamento) che la macchina stessa si è data attraverso il <em>training</em> che ha compiuto utilizzando una quantità amplissima di dati. In tema i riferimenti di G. Lo Sapio, <em>La black box: l’esplicabilità delle scelte algoritmiche quale garanzia di buona amministrazione</em>, in <em>Federaismi.it</em>, 2021, 114.</p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a> Su questi diversi modelli di IA cfr. sempre P. Traverso, <em>Breve introduzione tecnica all’Intelligenza Artificiale</em>, op. cit.. L’Autore illustra le forme di <em>Model based AI</em> ove un progettista definisce e costruisce un modello di un fenomeno che “<em>deve avere la caratteristica di poter essere inserito in un computer in modo da essere utilizzato dal computer stesso per calcolare, dare risposte, fare analisi, o operare e agire nel mondo. Un modello formale può essere ad esempio una ontologia, ovvero uno schema concettuale che, ad esempio, classifica diversi concetti</em>” (pag. 158-159). Si tratta di modelli di <em>Logic, knowledge-based o simbolic AI</em>. Poi, l’Autore definisce i differenti modelli di <em>machine learning</em> o di apprendimento automatico nei quali “<em>il modello di un fenomeno viene ottenuto dai dati, ad esempio dai dati disponibili su web, dai numerosi sensori nelle nostre città, dai sensori indossabili (si pensi ai dati raccolti sulla nostra salute dai sensori presenti in un semplice smart watch)</em>” (pag. 160).</p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a> Infatti, nonostante le sue descrizioni e classificazioni, afferma che “<em>in line with the Request, the scope of this Opinion only covers the subset of AI models that are the result of a training of such models with personal data</em>”<em> Opinion</em>, pag. 12.</p>
<p style="text-align: justify;">In via generale mentre i modelli possono essere definiti come quelle istruzioni essenziali che guidano i sistemi, i quali, però, per funzionare, richiedono la presenza di componenti informatici aggiuntivi, come un’interfaccia per l’utente i sistemi possono essere definiti come quelle infrastruttue informatiche capaci di inferire un <em>output</em> sulla base di un <em>imput</em>  ricevuto. Vedi <em>infra</em> la definizione dell’<em>IA act</em>.</p>
<p style="text-align: justify;">L’art. 3 dell’IA act definisce un «sistema di IA» come: “<em>un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall&#8217;input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali</em>. La definizione è ampia, flessibile, neutra da un punto di vista tecnologico ed in grado di comprendere tecniche in continua evoluzione. Essa riprende quella già elaborate dall’OCSE nelle sue varie Raccomandazioni (del novembre 2023 e del maggio 2024 con l’<em>Explanatory memorandum </em>del marzo 2024) che è in grado di comprendere sistemi basati sia sul <em>machine learning</em> che sul <em>knowledge-based</em> e sul <em>logic-based</em> cfr. <em>Recommendation of the Council on Artificial Intelligence</em>, OECD/LEGAL/0449, 2024. Come afferma il considerando n. 12 del Regolamento “<em>la definizione dovrebbe essere basata sulle principali caratteristiche dei sistemi di IA, che la distinguono dai tradizionali sistemi software o dagli approcci di programmazione più semplici, e non dovrebbe riguardare i sistemi basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico</em>”.  Inoltre “<em>Le tecniche che consentono l&#8217;inferenza nella costruzione di un sistema di IA comprendono approcci di apprendimento automatico che imparano dai dati come conseguire determinati obiettivi e approcci basati sulla logica e sulla conoscenza che traggono inferenze dalla conoscenza codificata o dalla rappresentazione simbolica del compito da risolvere</em>”. Sulle definizioni che si sono succedute nei vari documenti europei fino all’<em>IA act </em>C. Trincado Castán, <em>The legal concept of artificial intelligence: the debate surrounding the definition of AI System in the AI Act</em>, in <em>BioLaw Journal – Rivista di BioDiritto</em>, n. 1/2024, 305.</p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a> Per un’illustrazione delle figure dell’anonimizzazione, della pseudonimizzazione e delle ragioni tecniche per le quali esse conducono alla non applicazione della data protection cfr. G. D&#8217;Acquisto &#8211; M. Naldi, <em>Big data e privacy by design</em>, Torino, 2017, pagg. 33 e segg., per le tecniche di anonimizzazione pag. 41 e segg…</p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a> Come afferma la dottrina il principio non è da intendersi “<em>in senso meramente formale come documentazione delle misure protettive adottate, bensì in senso sostanziale come uno sforzo imposto al titolare di assumersi l’onere della piena conformità con il Regolamento</em>”, F. Galli, <em>Il principio di accountability</em>, in L. Califano, V. Fiorillo, F. Galli (a cura di), <em>La protezione dei dati personali: natura, garanzie e bilanciamento di un diritto fondamentale</em>, Torino, 2023. Sul principio già G. Finocchiaro, <em>Il principio di </em>accountability, in <em>Giur. it.</em>, 2019, 2778.</p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a> l’EDPB fornisce anche alcune misure esemplificative per rendere effettiva l’anonimizzazione quali la selezione e la minimizzazione delle fonti, l’adozione di metodi di riservatezza, la verifica e la documentaizone di tecniche contro gli attacchi esterni (cfr. pagg. 16 – 18 dell’<em>Opinion</em>).</p>
<p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a> L’<em>Opinion</em> richiama Corte di Giustizia UE, sent. 4 luglio 2023, C-252/21, <em>Meta v. Bundeskartellamt</em> e Id. sent. 11 dicembre 2019, C-708/18, <em>Asociaţia de Proprietari bloc M5A-ScaraA</em>. Ma si consideri anche Corte giust. UE, sent. 4 maggio 2017, C-75/16, <em>Menini e Rampanelli</em>. L’Opinion richiama anche le recenti Linee Guida, EDPB <em>Guidelines 1/2024 on processing of personal data based on Article 6(1)(f) GDPR</em>, Versione 1.0, 8 ottobre 2024. Si tenga conto che recentemente la Corte di Giustizia ha interpretato in senso molto restrittivo la base giuridica della necessità del trattamento per eseguire un contratto, escludendola di fatto per l’incrocio di dati sfruttati nel contesto di un <em>social network</em> Corte di Giustizia UE, Grande camera, sent. 4 luglio 2023, C-252/21, <em>Meta Platforms Inc. et al. v. Bundeskartellamt</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a> Come è noto, per verificare l’idoneità del legittimo interesse a fungere da base legale è necessario verificare e dimostrare (ad opera del titolare): a) la legittimità dell’interesse perseguito, c. d. <em>purposse test</em>; b) la necessarietà del trattamento, c. d. <em>necessity test</em>; c) la non prevalenza dell’interese del titolare sulle libertà e sui diritti degli interessati c. d. <em>balancing test</em>. Cfr. V Fiorillo, <em>Le condizioni di liceità del trattamento</em>, in <em> </em>L. Califano, V. Fiorillo, F. Galli (a cura di)<em>, La protezione dei dati personali: natura, garanzie e bilanciamento di un diritto fondamentale</em>, op. cit. Sui caratteri di questa base giuridica nel quadro di una più complessa elaborazione delle garanzie da fornire all’interessato cfr. G. Proietti, <em>Algoritmi e interesse del titolare del trattamento nella circolazione dei dati personali</em>, in <em>Contratto e impresa</em>, 2022, 880.</p>
<p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> <em>Opinion</em>, pag. 23</p>
<p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> Pare in questo senso superata l’idea dell’incompatibilità tra sistemi di IA e principio di proporzionalità considerata da parte della dottrina T. Zarsky, <em>Incompatible: the GDPR in the age of big data</em>, in <em>Seton Hall Law Review</em>, Vol. 47, No. 4(2), 2017, 995 e M. Ebers, <em>Regulating ai and robotics: ethical and legal challenges</em>, in M. Ebers – S. Navas Navarro (eds.), <em>Algorithms and Law</em>, Cambridge, Cambridge University Press, 2019. In quest’ottica, l’<em>Opinion</em> pare recuperare con riguardo ai sistemi di IA i principi di proporzionalità e minimizzazione recentemente riaffermati per il trattamento di dati fondato sul legittimo interesse nei casi di aggregazione delle informazioni da un <em>social network</em>, Corte giustizia UE, sez. IV, sent. 4 ottobre 2024, n. 446, C-446/21, <em>Ma. Sc. </em>Contro <em>Meta Platforms Ireland Ltd</em>;  nei casi di trattamento di dati acquistati a titolo oneroso per la realizzazione di interessi commerciali Corte giustizia UE, sez. IX, sent. 4 ottobre 2024, n. 621, C-621/22, <em>Koninklijke Nederlandse Lawn Tennisbond</em> contro <em>Autoriteit Persoonsgegevens</em>; nei casi di trattamento di dati dei membri di un fondo di investimento Corte giustizia UE sez. IV, sent. 12 settembre 2024, n. 17 C-17/22 e C-18/22, <em>HTB Neunte Immobilien Portfolio geschlossene Investment UG &amp; Co. KG</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> Nella ricostruzione dell’EDPB queste lesioni sono da evitare anche perché l’utilizzo legittimo di modelli di IA può agevolare l’esercizio dei diritti fondamentali: “<em>may also positively impact certain fundamental rights, e.g. the model may support the right to mental integrity of the person (Article 3 of the Charter), for instance when an AI model is used to identify harmful content online; or the model may facilitate the access to certain essential services or facilitate the exercise of fundamental rights, such as access to information (Article 11 EU Charter) or access to education (Article 14 EU Charter)</em>” (pag. 25).</p>
<p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> In questo senso l’<em>Opinion</em> riecheggia indicazioni già contenute in Gruppo di lavoro articolo 29 per la protezione dei dati, <em>Parere 6/2014 sul concetto di interesse legittimo del responsabile del trattamento ai sensi dell’articolo 7 della direttiva 95/46/CE</em>, 9 aprile 2014.</p>
<p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> <em>Opinion</em>, pag. 27.</p>
<p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> Con riguardo ai quali cfr. Gruppo di lavoro articolo 29, <em>Linee guida sulla trasparenza ai sensi del regolamento 2016/679</em>, adottate il 29 novembre 2017. Sul principio in generale F. Pizzetti, <em>Privacy e il diritto europeo alla protezione dei dati personali, </em>Torino, 2016, pag. 270; A. Ricci, <em>I diritti dell’interessato</em>, in G. Finocchiaro, <em>La protezione dei dati personali in Italia</em>, Bologna, 2019; F. Galli, <em>I diritti degli interessati</em>, in L. Califano, V. Fiorillo, F. Galli (a cura di)<em>, La protezione dei dati personali: natura, garanzie e bilanciamento di un diritto fondamentale</em>, op. cit. Per un adeguamento/adattamento delle regole di trasparenza in relazione agli sviluppi dei sistemi algoritmici cfr. C. Colapietro, <em>Gli algoritmi tra trasparenza e protezione dei dati personali</em>, in <em>Federalismi.it</em>, 2023, 151.</p>
<p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> <em>Opinion</em>, pag. 28.</p>
<p style="text-align: justify;"><a href="#_ftnref20" name="_ftn20">[20]</a> Cfr. art. 21 e pag. 29 dell’<em>Opinion</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref21" name="_ftn21">[21]</a> Cfr. art. 17 dell’<em>Opinion</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref22" name="_ftn22">[22]</a> Cfr. pag. 29 dell’<em>Opinion</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref23" name="_ftn23">[23]</a> Cfr. pag. 29.</p>
<p style="text-align: justify;"><a href="#_ftnref24" name="_ftn24">[24]</a> Cfr. pag. 29.</p>
<p style="text-align: justify;"><a href="#_ftnref25" name="_ftn25">[25]</a> <em>Opinion</em>, pag. 30. A questo propostio l’EDPB pare uscire dalla logica che condiziona l’esercizio del diritto alla rettifica ed alla cancellazione alla sussistenza di determinati presupposti (che testimoniano la prevalenza degli interessi dell’interessato). Su questi temi M. A. Livi, <em>Commento all’art. 16, Commento all’art. </em>17, in A. Barba – S. Pagliantini, <em>Commentario del codice civile </em>(diretto da E. Gabrielli)<em>, </em>vol. II, <em>Delle persone</em>. Anche la giurisprudenza europea presuppone questo giudizio di prevalenza nell’affermare il diritto alla cancellazione che viene condizionato all’assenza di “<em>motivi legittimi prevalenti che possano giustificare, in via eccezionale, il trattamento</em>” Corte Giustizia Ue, sez. I, sent. 7 dicembre 2023, C26/22 e C64/22 riunite <em>SCHUFA Holding</em>, sulla quale V. Pietrella – S. Racioppi,  <em>Il &#8220;credit scoring&#8221; e la protezione dei dati personali: commento alle sentenze della corte di giustizia dell’unione europea del 7 dicembre 2023</em>, in <em>Rivista italiana di informatica e diritto</em>, 2024, 175. Per un quadro generale in materia di diritto alla cancellazione cfr. F. Marina,<br /><em>Diritto alla cancellazione dei dati personali e comunicazioni elettroniche</em><br />(nota a sentenza Corte di Giustizia dell&#8217;Unione europea sezione IV 27 ottobre 2022 (causa C-129/21, <em>Proximus NV vs Gegevensbeschermingsautoriteit</em>), in <em>La nuova giurisprudenza civile commentata</em>, 2023, 560.</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/">PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
