<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Intelligenza artificiale Archivi - Giustamm</title>
	<atom:link href="https://www.giustamm.it/argomento/intelligenza-artificiale/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.giustamm.it/argomento/intelligenza-artificiale/</link>
	<description></description>
	<lastBuildDate>Fri, 27 Feb 2026 16:53:27 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.giustamm.it/wp-content/uploads/2021/04/cropped-giustamm-32x32.png</url>
	<title>Intelligenza artificiale Archivi - Giustamm</title>
	<link>https://www.giustamm.it/argomento/intelligenza-artificiale/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</title>
		<link>https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Fri, 27 Feb 2026 16:53:27 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=90409</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/">L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</a></p>
<p>Graziana Urbano   Sommario: 1. Le interazioni tra “intelligenza artificiale” e “Città intelligente”, sotto il prisma del principio di partecipazione – 2. Gli elementi costitutivi della Città intelligente, sotto il prisma della Costituzione: il contesto urbano &#8211; 2.1. (segue): la nuova dimensione della partecipazione “intelligente”, in chiave sussidiaria – 3.</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/">L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/">L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</a></p>
<p style="text-align: justify;"><strong>Graziana Urbano</strong></p>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;">Sommario: 1. Le interazioni tra “intelligenza artificiale” e “Città intelligente”, sotto il prisma del principio di partecipazione – 2. Gli elementi costitutivi della Città intelligente, sotto il prisma della Costituzione: il contesto urbano &#8211; 2.1. (segue): la nuova dimensione della partecipazione “intelligente”, in chiave sussidiaria – 3. La partecipazione “intelligente” al servizio della sicurezza urbana &#8211; 4. Riflessioni a margine della sicurezza urbana che si avvale della intelligenza artificiale</p>
<p style="text-align: justify;">
<p style="text-align: justify;">
<ol style="text-align: justify;">
<li><strong>Le interazioni tra “intelligenza artificiale” e “Città intelligente”, sotto il prisma del principio di partecipazione</strong></li>
</ol>
<p style="text-align: justify;">
<p style="text-align: justify;">I nuovi sistemi tecnologici e digitali di intelligenza artificiale volti alla sicurezza urbana nell’ambito della dimensione locale dei Comuni pongono all’attenzione del giurista una serie di interrogativi che abbracciano profili più tradizionali, relativi sia alla dimensione che assurge il principio di partecipazione del cittadino alla gestione dell’attività amministrativa volta alla sicurezza urbana in un contesto territoriale locale sia alla portata giuridica che assume il concetto di <em>Smart cities</em>&#8211; o, nella traduzione italiana, sebbene non letterale, di Città intelligenti- che sembra ad oggi rimodularsi, grazie proprio all’apporto concreto dell’intelligenza artificiale.</p>
<p style="text-align: justify;">La riflessione intende, in sostanza, indagare l’incidenza degli strumenti di intelligenza artificiale volti alla sicurezza urbana nell’ambito delle <em>Smart Cities, </em>cd. <em>Città intelligenti</em>, scegliendo come campo di indagine privilegiato il tenore assunto dal principio di partecipazione dei cittadini fortemente ridimensionato dall’uso proprio degli strumenti di intelligenza artificiale.</p>
<p style="text-align: justify;">            L’indagine così condotta offre, infatti, la stura per riflettere su una nuova dimensione anche del concetto di Città intelligente e della sua stretta relazione con gli strumenti di intelligenza artificiale, di cui si avvale soprattutto ai fini della sicurezza urbana, e consente di approfondire soprattutto la nuova dimensione che intessa il rapporto tra cittadino e pubblica autorità e, di riflesso, il principio di partecipazione degli amministrati, coinvolti in attività adottate dalle autorità pubbliche volte alla sicurezza urbana.</p>
<p style="text-align: justify;">La mappa concettuale della riflessione intende muoversi essenzialmente su tre direttrici di indagine strettamente collegate: 1. l’intelligenza artificiale che serve alla partecipazione; 2.che serve alla sicurezza urbana; 3. nel contesto urbano di riferimento che è quello della Città intelligente.</p>
<p style="text-align: justify;">            Partendo da quest’ultima, il concetto di Città intelligente, nella declinazione italiana del termine, ad oggi acquisisce più consapevolezza e dignità, soprattutto per le evidenti connessioni con il concetto di intelligenza artificiale: infatti, ad oggi, quando si parla di <em>Smart</em> <em>city</em> o Città intelligente non si può non tener conto dell’apporto dell’intelligenza artificiale o, in generale, dei più innovativi e avanzati strumenti digitali e tecnologi che fanno capo proprio all’intelligenza artificiale, come <em>mezzo</em> per migliorare le condizioni e la qualità della vita dei cittadini<a href="#_ftn1" name="_ftnref1">[1]</a>.</p>
<p style="text-align: justify;">L’introduzione nell’ordinamento nazionale delle <em>Smart cities</em> in Italia, infatti, si è basata essenzialmente nella diffusione della cultura del digitale negli assetti organizzativi e negli impianti procedimentali amministrativi, ossia nella promozione capillare dei sistemi informatici e di digitalizzazione all’interno delle pubbliche amministrazioni, soprattutto, nelle sue interazioni con i cittadini/utenti.</p>
<p style="text-align: justify;">Ad oggi questa cultura, per come maturata, non può non tener conto dell’applicazione dei sistemi di intelligenza artificiale.</p>
<p style="text-align: justify;">E tanto emerge anche chiaramente dal dettato della recente legge in materia di intelligenza artificiale, la legge n. 132 del 23 settembre 2025, quando, all’art. 14, dedicato all’uso della intelligenza artificiale nella pubblica amministrazione, precisa lo scopo a cui tende l’utilizzo della intelligenza artificiale da parte delle pubbliche amministrazioni, ossia, tra gli altri, ad aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese.</p>
<p style="text-align: justify;">D’altro canto, l’aggettivo “intelligente” accostato alla Città nella definizione nazionale, in comune con quello di “intelligenza” artificiale, sta proprio a confermare lo stretto legale che c’è tra i due termini della questione.</p>
<p style="text-align: justify;">Sul punto, però, nonostante manchi una definizione di Città intelligente nel panorama normativo nazionale<a href="#_ftn2" name="_ftnref2">[2]</a> e una disciplina giuridica che possa reggerne le ricadute sul piano applicativo, è condivisa l’idea che uno dei profili &#8211; se non il principale &#8211; a connotarne le caratteristiche sia il legame – basato essenzialmente su un rapporto proporzionale &#8211; tra l’esercizio del potere da parte dell’amministrazione pubblica che si avvalga e utilizzi  i sistemi telematici, digitali, di intelligenza artificiale e la partecipazione attiva dei suoi cittadini come incidente sulla qualità della vita dei cittadini, rispetto a un contesto urbano che coincide per lo più con quello dell’ente comunale, come più avanti si chiarirà.</p>
<p style="text-align: justify;">D’altra parte, una esplicazione (sebbene proveniente da una fonte non giuridica, ma di natura per lo più tecnica) della Città intelligente la descrive proprio come «quel luogo e/o contesto territoriale ove l’utilizzo pianificato e sapiente delle risorse umane e naturali, opportunamente gestite e integrate mediante le numerose tecnologie Ict già disponibili, consente la creazione di un ecosistema capace di utilizzare al meglio le risorse e di fornire servizi integrati e sempre più intelligenti»<a href="#_ftn3" name="_ftnref3">[3]</a>.</p>
<p style="text-align: justify;">In sostanza, il termine <em>Smart city</em> mette in relazione il <em>contesto urbano</em>, ossia le strutture amministrative e le infrastrutture materiali delle Città, in un ambito territoriale ben definito e delineato (per lo più coincidente con quello dell’ente comunale), con il <em>capitale umano, intellettuale e sociale</em> di chi le abita: relazione che si avvale degli strumenti telematici, informatici e digitali, e, quindi, dell’intelligenza artificiale, volti a migliorare la qualità di vita dei cittadini.</p>
<p style="text-align: justify;">Nella <em>Smart city</em>, infatti, la connettività digitale e/o telematica è considerata una fonte di crescita e di sviluppo urbano, tesa essenzialmente a promuovere l’idea di Città inclusiva, di Città partecipata, si potrebbe aggiungere in questa sede di Città sicura, dal momento che consente nuove forme di partecipazione attiva e di coesione sociale tra i cittadini, in uno spazio territoriale ben individuato.</p>
<p style="text-align: justify;">Ed è questo profilo che si intende sottolineare e sul quale ci si vuole soffermare, ossia il legame direttamente <em>proporzionale</em> che c’è tra gli strumenti digitali e telematici &#8211; più propriamente quella che ad oggi prendono il nome di intelligenza artificiale &#8211; rispetto alla qualità della vita dei cittadini in termini di sicurezza, in cui, essenzialmente l’intelligenza artificiale diviene strumento migliorativo della qualità delle condizioni di vita dei cittadini; diviene, in altri termini, strumentale alla partecipazione attiva dei cittadini, in un contesto urbano in cui lo spazio pubblico della Città viene interpretato con particolari forme di coesione, condivisione e inclusione sociale anche ai fini securitari.</p>
<p style="text-align: justify;">Proprio la stretta connessione con la partecipazione dei cittadini consente, quindi, di iniziare a inquadrare giuridicamente la “Città intelligente”: l’intelligenza artificiale diviene un mezzo, uno strumento, di cui la Città si avvale, per migliorate la partecipazione dei cittadini della comunità di riferimento che necessita, però, di essere collocata in una dimensione materiale e territoriale precisa. Pertanto, diviene rilevante ricostruire l’ambito territoriale di riferimento delle Città intelligenti.</p>
<p style="text-align: justify;">Il secondo passaggio della riflessione verte sull’applicazione del principio di partecipazione nell’ambito dell’esercizio dell’azione pubblica volta al raggiungimento del fine pubblico della sicurezza urbana nel contesto delle Città intelligenti, secondo quel connubio, suggerito da parte della dottrina, che lega la Città intelligente alla Città sicura<a href="#_ftn4" name="_ftnref4">[4]</a> e che passa anch’esso dal coinvolgimento dei cittadini nell’azione dei pubblici poteri, ai fini securitari.</p>
<p style="text-align: justify;">
<ol style="text-align: justify;" start="2">
<li><strong>Gli elementi costitutivi della Città intelligente, sotto il prisma della Costituzione: il contesto urbano</strong></li>
</ol>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;">Come anticipato, occorre, in primo luogo, individuare il contesto territoriale e fisico in cui le Città intelligenti agiscono e, in secondo luogo, delineare meglio l’essenza della partecipazione a cui si è già fatto cenno.</p>
<p style="text-align: justify;">Senza dubbio, nel gergo comune, il termine “Città” rimanda immediatamente a quello, giuridico, di “Comune”, tanto che i due termini vengono spesso utilizzati indistintamente.</p>
<p style="text-align: justify;">In realtà, al netto dell’assonanza semantica, i due concetti, pur distinti, si intrecciano tra loro<a href="#_ftn5" name="_ftnref5">[5]</a>.</p>
<p style="text-align: justify;">«La Città non è tanto un concetto di analisi quanto piuttosto una categoria della pratica sociale»<a href="#_ftn6" name="_ftnref6">[6]</a>. La Città, infatti, viene definita come «centro abitato di dimensioni demografiche non correttamente definibili a priori, comunque non troppo modeste, sede di attività economiche in assoluta prevalenza extra-agricole e soprattutto terziarie, e pertanto in grado di fornire servizi alla propria popolazione e a quella di un ambito più o meno vasto che ne costituisce il bacino d’utenza (o area d’influenza)<a href="#_ftn7" name="_ftnref7">[7]</a>.</p>
<p style="text-align: justify;">Il Comune, invece, è definito dal legislatore come l’ente locale che rappresenta la propria comunità, ne cura gli interessi e ne promuove lo sviluppo. Esso ha una propria autonomia statutaria, normativa, organizzativa e amministrativa, nonché una autonomia impositiva e finanziaria nell’ambito dei suoi statuti e regolamenti<a href="#_ftn8" name="_ftnref8">[8]</a>.</p>
<p style="text-align: justify;"> Tra i due concetti emerge, pertanto, un’assonanza rintracciabile sia nella rilevanza attribuita, in entrambe le definizioni, al concetto di “comunità” sia nella presenza dei tre elementi che tradizionalmente costituiscono il Comune. Nella definizione di Città proposta, infatti, si fa riferimento a un ambito territoriale<a href="#_ftn9" name="_ftnref9">[9]</a>, alla popolazione ivi collocata e ai profili strettamente organizzativi e finanziari che, come noto, rappresentano tradizionalmente gli elementi costitutivi del Comune.</p>
<p style="text-align: justify;">Il fondamento giuridico da cui partire rimane, però, la Costituzione italiana, in particolare gli articoli dedicati alle autonomie locali: in sostanza, l’impianto costituzionale sulle autonomie locali rappresenta il punto di partenza del processo di collocazione della Città intelligente nei binari del diritto pubblico, al fine di individuarne il contesto urbano fisico di riferimento.</p>
<p style="text-align: justify;">Il riferimento è agli articoli 114 e 118 della Costituzione che assolvono, in realtà, un duplice ruolo in questa sede: non solo sono notoriamente la base normativa del principio di partecipazione che è elemento caratterizzante le Città intelligenti, come si è in parte anticipato, ma meglio di affronterà, ma soprattutto consentono di tracciare l’ambito spaziale, il contesto territoriale in cui le Città intelligenti agiscono.</p>
<p style="text-align: justify;">In forza del dettato costituzionale di cui all’art. 114 della Costituzione, il territorio va a connotare &#8211; sebbene non definisca &#8211; anche la Città intelligente, al pari di quello che avviene, come noto, per il Comune. In sostanza, tramite una lettura costituzionalmente orientata, l’ambito territoriale delle Città intelligenti va a coincidere con quello dei Comuni; ma non di tutti i Comuni, dal momento un Comune può qualificarsi come Città intelligente in forza dell’uso che fa e sempre che lo faccia dell’intelligenza artificiale o, in generale, degli strumenti informatici e digitali nel contesto urbano di riferimento.</p>
<p style="text-align: justify;">Pertanto, non tutti i Comuni sono Città intelligenti e viceversa: detto altrimenti, l’ambito territoriale delle Città intelligenti coincide con i Comuni, ma non tutti i Comuni sono Città intelligenti, dal momento che diviene dirimente l’utilizzo che ne fanno (e se lo fanno) degli strumenti di intelligenza artificiale.</p>
<p style="text-align: justify;">In sostanza, l’elemento territoriale che, tradizionalmente, costituisce l’ente comunale come elemento essenziale, diviene eventuale nel caso delle Città intelligente, non fosse altro perché gli strumenti di intelligenza artificiale come elemento essenziale che rendono un Comune una Città intelligente attengono più strettamente l’esercizio delle attività amministrative, non già l’mabito spaziale; tuttavia, nel caso in cui ciò avvenga, ossia che la compagine amministrativa locale si avvalga di sistemi di intelligenza artificiale nell’esercizio delle sue funzioni, questo ha ricadute concrete nel contesto territoriale di riferimento come elemento (eventuale) di una Città intelligente.</p>
<p style="text-align: justify;">In sostanza, l’intelligenza artificiale è elemento essenziale delle Città intelligenti, non già del Comune, laddove quest’ultimo la utilizzi a fini migliorativi della qualità di vita della collettività di riferimento: questo consente di cogliere l’elemento territoriale di riferimento, il contesto spaziale in cui agisce la Città intelligente, riconoscendole dignità giuridica.</p>
<p style="text-align: justify;">La Città intelligente non è altro, quindi, che un Comune che utilizzi strumenti di intelligenza artificiale al servizio dei cittadini nel contesto territoriale di riferimento.</p>
<p style="text-align: justify;">
<ul style="text-align: justify;">
<li><strong>(segue): la nuova dimensione della partecipazione “intelligente”, in chiave sussidiaria</strong></li>
</ul>
<p style="text-align: justify;">
<p style="text-align: justify;">Circa il principio di partecipazione che è il secondo profilo che in questa sede assume particolare importanza: il riferimento costituzionale non può che rintracciarsi nuovamente nel tenore dell’art. 118 della Costituzione, soprattutto in relazione al principio di sussidiarietà orizzontale, posto a presidio di ogni forma di partecipazione e collaborazione tra autorità pubbliche e cittadini.</p>
<p style="text-align: justify;">La partecipazione assume rilievo in quanto rappresenta, in sostanza, la chiave di lettura delle Città intelligenti, dal momento che i cittadini sono elemento essenziale, destinatari e vero motore del loro funzionamento<a href="#_ftn10" name="_ftnref10">[10]</a>.</p>
<p style="text-align: justify;">Ma il punto nodale è rappresentato dalle modalità attraverso cui si manifesta la loro partecipazione nelle Città intelligenti: la risposta non può che rintracciarsi proprio e ancora una volta nell’intelligenza artificiale, o meglio nel supporto e ausilio che l’intelligenza artificiale assume nelle dinamiche partecipative in cui sono coinvolti i cittadini, ad esempio, tramite la condivisione dei dati da parte dei singoli cittadini o il coinvolgimento attivo degli stessi o semplicemente mediante il loro consenso all’utilizzo di sistemi informatici o digitali da parte dell’amministrazione locale (con riferimento al tema della sicurezza che tra poco si vedrà nel dettaglio, il consenso dei cittadini ad essere, ad esempio, ripresi o tracciati o controllati dai sistemi di videosorveglianza).</p>
<p style="text-align: justify;">Il cerchio, quindi, inizia a chiudersi: in estrema sintesi, l’intelligenza artificiale si pone al servizio della partecipazione in un contesto urbano di riferimento che è quello delle Città intelligenti che tendenzialmente coincide con quello comunale.</p>
<p style="text-align: justify;">Quanto affermato trova, inoltre, fondamento normativo anche nel comma 4 dell’art. 1 della legge sull’intelligenza artificiale di recente introduzione, quando, richiamando il principio di autonomia e sussidiarietà, precisa che l’utilizzo di sistemi di intelligenza artificiale non deve pregiudicare l’esercizio delle competenze e delle funzioni delle istituzioni territoriali sulla base dei principi di autonomia e sussidiarietà.</p>
<p style="text-align: justify;">A questo punto, nella ricerca di un inquadramento giuridico della Città intelligenti che si sta pian piano delineando, non può non richiamarsi anche il principio di sussidiarietà, consacrato proprio nell’art. 118 della Costituzione.</p>
<p style="text-align: justify;">Anzi, non può che individuarsi una nuova declinazione anche del principio di sussidiarietà nella sua dimensione orizzontale, come fondamento della partecipazione che sia avvale degli strumenti di intelligenza artificiale in un contesto urbano di riferimento che è quello delle Città intelligenti: queste ultime, infatti, sono quelle più idonee a misurare e modulare la loro attività sulla base delle esperienze sociali e delle situazioni di fatto imposte dalla comunità di appartenenza e suggerite dai suoi cittadini per il tramite di strumenti partecipativi, coadiuvati e implementati ad oggi dall’intelligenza artificiale.</p>
<p style="text-align: justify;">È in definitiva, in questo senso, che va interpretato l’accostamento dell’aggettivo “intelligente” alla città come la dimensione (<em>governativa, urbana o territoriale)</em> più attenta e incentrata sulle reali esigenze di vita manifestate dai cittadini e dalle comunità di riferimento, grazie al supporto dell’intelligenza artificiale che consente e realizza forme di condivisione, di collaborazione e di partecipazione attiva molto più efficaci, efficienti ed immediate: in sostanza, la partecipazione come componente essenziale e caratterizzante del principio di sussidiarietà orizzontale va, altresì, a riempire di contenuto giuridico anche il concetto di intelligenza accostato alle città intelligenti.</p>
<p style="text-align: justify;">Quindi, non può che attribuirsi una veste giuridica all’aggettivo intelligente, innanzi richiamato, che accomuna la Città intelligente e l’intelligenza artificiale; infatti, può concludersi che l’intelligenza che connota la Città intelligente altro non significhi che partecipazione (in chiave sussidiaria) che si avvalga dell’intelligenza artificiale. Tutto è, pertanto, volto al coinvolgimento &#8211; diretto o meno che sia dei cittadini &#8211; a che l’amministrazione possa recuperare quante più informazioni, dati, elementi possibili, tramite il supporto dell’intelligenza artificiale, al fine di garantire loro condizioni di vita, come d’altra parte emerso nelle intenzioni del legislatore quando ha introdotto di recente la legge delega sull’intelligenza artificiale, che all’art. 14 sui principi in materia di pubblica amministrazione, innanzi richiamato, riconosce all’intelligenza artificiale una funzione strumentale e di supporto all’attività provvedimentale (soprattutto nell’ambito delle fasi istruttorie) dei procedimenti amministrativi.</p>
<p style="text-align: justify;">A questo punto, non appaia fuori luogo qualificare anche la partecipazione come <em>partecipazione</em> <em>intelligente: </em>la Città intelligente, infatti, non si concentra tanto (e solo) sulla promozione dell’utilizzo di nuove tecnologie di intelligenza artificiale come <em>mezzo</em> per migliorare la qualità di vita dei cittadini e il benessere di una comunità, ma si costruisce per lo più sulla promozione degli istituti di partecipazione &#8211; mediante l’ausilio dell’intelligenza artificiale- anche come <em>fine</em> per avvicinare e coinvolgere i cittadini e, soprattutto, consentire loro di interagire e comunicare direttamente all’amministrazione (a questo punto, soprattutto quella locale) le reali necessità ed esigenze come elementi indispensabili dei suoi processi decisionali.</p>
<p style="text-align: justify;">L’uso degli strumenti tecnologici maturati ad oggi nella intelligenza artificiale diviene il <em>mezzo</em> per semplificare il dialogo tra amministrazione e cittadini<a href="#_ftn11" name="_ftnref11">[11]</a>, rispetto a un <em>fine</em> che altro non è che la partecipazione o la condivisione a cui gli stessi devono tendere a realizzare per costruire una città inclusiva, partecipata, intelligente, sicura.</p>
<p style="text-align: justify;">In questo senso, devono interpretarsi le politiche di innovazione incentrate sulla digitalizzazione dei processi decisionali delle amministrazioni, in cui l’utilizzo del digitale e dell’intelligenza artificiale viene interpretato come una forma di investimento pubblico per una riforma strutturale delle amministrazioni. In altri termini, gli strumenti tecnologici e, in particolare, quelli digitali divengono strumento per la trasformazione economica e sociale che ha come scopo e fine quello di porre al centro delle azioni i cittadini e le imprese, per migliorare la loro qualità di vita sotto molteplici fini, tra cui, come si sottolineerà, anche quello della sicurezza urbana.</p>
<p style="text-align: justify;">Si riconosce, dunque, una forza centripeta alla intelligenza artificiale che tende a convergere verso un unico e più solido scopo rappresentato dalla partecipazione dei singoli alle decisioni amministrative, per fini superiori, come quello che si vedrà della sicurezza urbana.</p>
<p style="text-align: justify;">
<ol style="text-align: justify;" start="3">
<li><strong>La partecipazione “intelligente” al servizio della sicurezza urbana</strong></li>
</ol>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;">Esaminata, per grandi linee, la relazione che intreccia le Città intelligenti e l’intelligenza artificiale e che trova il suo punto di convergenza nella partecipazione dei cittadini resa più efficiente ed efficace mediante l’utilizzo dei strumenti di intelligenza artificiale rispetto al contesto urbano di appartenenza, si intende esaminarla dal punto di vista della sicurezza urbana, come fine pubblico che la Città intelligente intende perseguire.</p>
<p style="text-align: justify;">La sicurezza urbana, infatti, rappresenta l’interesse pubblico a cui l’amministrazione locale tende, rispetto al quale, più che in altri ambiti, si manifestano maggiormente ipotesi di utilizzo concreto di strumenti di intelligenza artificiale volti a realizzarlo.</p>
<p style="text-align: justify;">In sostanza, nel contesto urbano rappresentato dalle Città intelligenti, una prospettiva particolare da cui esaminare quella che si è definita come una partecipazione intelligente come suo connotato essenziale, anche per le forti ricadute applicative e pratiche, è rappresentata dalle modalità in cui la Città intende realizzare il fine pubblico securitario; queste dinamiche confermano l’apporto della intelligenza artificiale alle forme partecipative che sostanzia, come accennato, i tratti essenziali delle Città intelligenti.</p>
<p style="text-align: justify;">In primo luogo, però, è opportuno anche qui intendersi sul termine “sicurezza urbana”<a href="#_ftn12" name="_ftnref12">[12]</a>, rispetto a un quadro normativo offerto dal legislatore che appare abbastanza lineare, ma è in realtà, per alcuni versi, poco chiaro.</p>
<p style="text-align: justify;">La sicurezza urbana rientra, senza dubbio, nella competenza dei Comuni e, riprendendo quanto detto, cioè che il territorio connota, sebbene non definisca né identifichi le Città intelligenti &#8211; connotandosi come un elemento eventuale &#8211; riguarda anche, per l’appunto, queste ultime.</p>
<p style="text-align: justify;">Il testo normativo di riferimento è, a tal proposito, il cd. Decreto Minniti, decreto legge n. 14 del 20.02.2017 convertito in legge 18 aprile 2017, n. 48 proprio sulla sicurezza urbana<a href="#_ftn13" name="_ftnref13">[13]</a>.</p>
<p style="text-align: justify;">È importante il richiamo al D.L. “Minniti” in quanto ha definito in una norma di rango primario, all’art. 4, il concetto di sicurezza urbana, stabilendo che «si intende per sicurezza urbana il bene pubblico che afferisce alla vivibilità e al decoro delle città, da perseguire anche attraverso interventi di riqualificazione, anche urbanistica, sociale e culturale, e recupero delle aree o dei siti degradati, l’eliminazione dei fattori di marginalità e di esclusione sociale, la prevenzione della criminalità, in particolare di tipo predatorio, la promozione della cultura del rispetto della legalità e l’affermazione di più elevati livelli di coesione sociale e convivenza civile, cui concorrono prioritariamente, anche con interventi integrati, lo Stato, le Regioni e Province autonome di Trento e di Bolzano e gli enti locali, nel rispetto delle rispettive competenze e funzioni».</p>
<p style="text-align: justify;">Parafrasando la definizione, in un cerchio che si chiude, si rintracciano i riferimenti e le connessioni, a cui si è già fatto cenno, tra la partecipazione, la coesione sociale, e il principio di sussidiarietà, dal momento che concorrono prioritariamente ad essi, tra gli altri, gli enti locali, come i Comuni o, nella declinazione che in questa sede si suggerisce, quei Comuni che, avvalendosi dell’intelligenza artificiale, assumono la veste di Città intelligenti.</p>
<p style="text-align: justify;">La giurisprudenza della Corte Costituzionale (si pensi alla sentenza n. 47 del 25.03.2024) e la dottrina<a href="#_ftn14" name="_ftnref14">[14]</a> hanno puntato l’attenzione su una sicurezza urbana che la stessa legge definisce, all’art. 1, “integrata”<a href="#_ftn15" name="_ftnref15">[15]</a>, ossia basata essenzialmente sulla collaborazione interistituzionale, in cui assume rilievo il riparto di competenze e funzioni tra i vari livelli di governo, in forza del principio di sussidiarietà consacrato in Costituzione.</p>
<p style="text-align: justify;">Tali scopi sono perseguiti sia mediante accordi tra Stato, Regioni e Province autonome, sia attraverso il potenziamento dei poteri dei Sindaci (nella loro doppia veste di rappresentanti della comunità locale e rappresentanti del Governo), sia tramite l’apporto di altri due attori istituzionali tradizionalmente preposti alla sicurezza sul territorio che sono il Questore e il Prefetto. Soprattutto a quest’ultimo la legge consente di predisporre Patti con il Sindaco per obiettivi più specifici di carattere locale.</p>
<p style="text-align: justify;">In quest’ottica, il decreto Minniti ha correttamente optato per prediligere la prevenzione in luogo della repressione, dal momento che rappresenta il <em>modus operandi</em> più idoneo al raggiungimento di forme e obiettivi di controllo sociale, anche a fini securitari, allineandosi a una <em>ratio</em> seguita dal legislatore negli ultimi anni, inaugurata, come noto, dalla legge cd. anticorruzione del 2002, volta a prevenire, anziché reprimere (come avveniva tradizionalmente) eventuali fenomeni dissuasivi o intralcianti il regolare flusso dell’<em>agere</em> amministrativo.</p>
<p style="text-align: justify;">In particolare, l’art. 8 del decreto è andato a modificare gli artt. 50 e 54 del Testo Unico delle leggi sull’ordinamento degli enti locali circa le modalità di esercizio del potere di ordinanza attribuito al Sindaco<a href="#_ftn16" name="_ftnref16">[16]</a>.</p>
<p style="text-align: justify;">La disposizione attribuisce al Sindaco ulteriori poteri finalizzati a garantire per l’appunto la sicurezza urbana, volta a migliorare le condizioni e qualità della vita dei cittadini nell’ambito territoriale di competenza, realizzabile, pertanto, anche e soprattutto ad oggi mediante strumenti di intelligenza artificiale. O, detto altrimenti e seguendo le suggestioni innanzi esposte, nello spazio territoriale di riferimento che, in questo caso altro non è che quello di una Città intelligente, il Sindaco persegue fini di sicurezza urbana avvalendosi anche dell’apporto della intelligenza artificiale.</p>
<p style="text-align: justify;">Il dialogo e la collaborazione tra livelli di governo deve muoversi anche nell’ottica del coinvolgimento dei privati.</p>
<p style="text-align: justify;">Infatti, dalla lettura del testo normativo, si evince che la sicurezza urbana si ottiene tramite una maggiore attenzione al territorio da parte delle istituzioni pubbliche, delle forze dell’ordine e dei privati, che tutti insieme devono condividere &#8211; in pieno spirito partecipativo e collaborativo &#8211; e contribuire a risolvere eventuali situazioni di degrado del territorio o di disagio per la collettività.</p>
<p style="text-align: justify;">Anzi, da questa prospettiva, la legge 18 aprile 2017, n. 48 è stata introdotta dal legislatore proprio e volutamente con l’obiettivo di coordinare e favorire la collaborazione tra le forze di polizia, la polizia locale e i cittadini soprattutto mediante l’utilizzo di tecnologie e sistemi di sicurezza sempre più interconnessi e in grado di semplificare la gestione dei dati e lo scambio delle informazioni.</p>
<p style="text-align: justify;">La normativa, infatti, allo scopo di migliorare la qualità della vita e del territorio, realizzabile mediante forme di inclusione sociale e di riqualificazione socioculturale delle aree interessate, favorisce l’utilizzo di strumenti di collaborazione come le reti territoriali di volontari o avvalendosi anche dei sistemi di videosorveglianza: in sostanza, promuove quelli che vengono definiti, per l’appunto, <em>patti per la sicurezza urbana</em> (regolati dall’art. 5 del decreto n. 14 del 2017) per prevenire e contrastare i fenomeni di criminalità diffusa e predatoria anche con il coinvolgimento, mediante specifici accordi, di reti territoriali di volontari nella tutela dell’arredo urbano, delle aree verdi e dei parchi cittadini e favorire l’impiego delle forze di polizia per far fronte ad esigenze straordinarie di controllo del territorio anche mediante l’installazione di sistemi di videosorveglianza.</p>
<p style="text-align: justify;">Pertanto, è vero che la sicurezza urbana si realizza mediante il controllo dei cittadini, nella misura in cui l’uso degli strumenti informatici e digitali (come l’esempio dei sistemi di videosorveglianza) consente un monitoraggio capillare ed efficace delle aree e delle situazioni che siano a rischio<a href="#_ftn17" name="_ftnref17">[17]</a>, ma è altrettanto vero che è soprattutto il coinvolgimento e la partecipazione (si aggiunge, consapevole) dei cittadini a diventare un fattore essenziale per addivenire ad un modello di città sicura.</p>
<p style="text-align: justify;">In questo senso, le Città intelligenti devono, secondo le prescrizioni di legge, dotarsi di sistemi informatici e di piattaforme on-line accessibili h24, che permettano ai cittadini di comunicare qualsiasi problema riscontrato sul territorio, con la possibilità di inviare in tempo reale dati e informazioni utili per l’operatività del sistema di gestione e controllo.</p>
<p style="text-align: justify;">Il testo legislativo, quindi, conferma l’intento del legislatore che promuove l’utilizzo dell’intelligenza artificiale (ad esempio mediante i sistemi di videosorveglianza) come strumento di partecipazione finalizzato, nel caso di specie, alla sicurezza urbana.</p>
<p style="text-align: justify;">L’utilizzo dell’intelligenza artificiale, infatti, tramite i sistemi di videosorveglianza dei cittadini consente alle amministrazioni, da una parte, di raccogliere quante più informazioni e dati possibili al fine di migliorare la qualità della vita dei cittadini e la gestione del territorio nelle città, dall’altra, di “sfruttare” e ottimizzare le informazioni incamerate al fine del monitoraggio urbano o, meglio del controllo delle persone, “mappando” il territorio: tutto ciò ai fini della sicurezza urbana.</p>
<p style="text-align: justify;">Quindi, in sostanza, l’intelligenza artificiale nelle Città intelligenti applicata ai sistemi di sicurezza urbana, come sono i sistemi di videosorveglianza, ha lo scopo di migliorare la gestione delle città: migliorare nel senso di aumentare la qualità di vita dei cittadini, rendendo le città più vivibili, più sicure, più controllate, riducendo le situazioni di disagio sociale o prevedendo le situazioni di degrado urbano o di pericolo, allineandosi così, tra l’altro, a quanto previsto dal PNRR<a href="#_ftn18" name="_ftnref18">[18]</a>.</p>
<p style="text-align: justify;">
<ol style="text-align: justify;" start="4">
<li><strong> I nodi ancora irrisolti: il controllo dei luoghi e delle persone al fine della sicurezza urbana rispetto al diritto alla riservatezza dei cittadini</strong></li>
</ol>
<p style="text-align: justify;"><strong> </strong></p>
<ol style="text-align: justify;" start="4">
<li><strong> Riflessioni a margine della sicurezza urbana che si avvale della intelligenza artificiale </strong></li>
</ol>
<p style="text-align: justify;">
<p style="text-align: justify;">Le riflessioni innanzi esposte aprono la strada a una serie di suggestioni e di problemi che inevitabilmente si stagliano e che necessitano di essere collocati nei binari giuridici.</p>
<p style="text-align: justify;">Tra questi, un profilo che suscita senza dubbio qualche perplessità è quello legato al <em>controllo</em> di luoghi e, soprattutto, dei cittadini e il monitoraggio dei medesimi, possibile, ad esempio, attraverso i sistemi di videosorveglianza o, in generale, di altri strumenti di intelligenza artificiale, volti a realizzare un contesto urbano più sicuro.</p>
<p style="text-align: justify;">Senza dubbio, la presenza di forme di controllo da parte della amministrazione pubblica farebbe intendere l’assenza di alcuna forma di coinvolgimento, di apporto partecipativo, da parte dei cittadini “attenzionati” dai sistemi di intelligenza artificiale in uso alle amministrazioni pubbliche o, come nel caso di specie, da parte dei cittadini considerati, pertanto, soggetti “passivi” degli impianti, ad esempio, di videosorveglianza che risultano essere, pertanto, controllati e monitorati dalle amministrazioni pubbliche per fini più generali, dettati dalla sicurezza urbana.</p>
<p style="text-align: justify;">Tutto ciò, infatti, sembrerebbe stridere con quanto finora sostenuto di una intelligenza artificiale che, invece, serve alla partecipazione.</p>
<p style="text-align: justify;">Questa preoccupazione, invero, sembra che non abbia ragion di esistere, anzi!</p>
<p style="text-align: justify;">Nella maggior parte dei casi, infatti, soprattutto nella ipotesi dell’utilizzo degli strumenti di videosorveglianza, non può prescindersi da una considerazione importante: il singolo cittadino partecipa ed è coinvolto dall’amministrazione che si avvale della intelligenza artificiale, manifestando il suo <em>consenso</em>; il cittadino è, infatti, informato e consapevole e, soprattutto, accetta, prestando il suo consenso, di fornire informazioni e dati sulla sua persona all’amministrazione che utilizzi strumenti di videosorveglianza finalizzati alla sicurezza urbana.</p>
<p style="text-align: justify;">È in questo senso, quindi, in un cerchio che si chiude, che si realizza a pieno quella partecipazione intelligente in chiave sussidiaria che connota le Città intelligenti, come modello organizzativo che si avvale dell’intelligenza artificiale per consentire la partecipazione, tramite la condivisione, il coinvolgimento dei cittadini per un bene pubblico superiore che, in questo caso, è rappresentato dalla sicurezza urbana.</p>
<p style="text-align: justify;">La partecipazione, come carattere genetico della funzione amministrativa, si manifesta in sostanza, nel caso di specie, con il consenso dei cittadini ad essere controllati ed è funzionale ad un bene pubblico superiore che è quello del perseguimento della sicurezza urbana. Il cittadino, infatti, è disposto a “sacrificare”, in maniera consenziente e consapevole, anche la sua libertà, la sua <em>privacy</em>, i suoi diritti, dal momento che alla opzione postagli dinanzi se preferire una città più sicura o preservare la sua sfera personale, la sua riservatezza, la sua scelta ricadrebbe quasi certamente sulla prima.</p>
<p style="text-align: justify;">Tuttavia, per consentire la piena partecipazione, per consentire la piena consapevolezza da parte dei cittadini delle modalità attraverso cui la amministrazione agisce, anche con strumenti di intelligenza artificiale, per finalità generali di sicurezza urbana, le istituzioni devono assolvere a un preciso dovere di informazione e comunicazione ai cittadini, devono compensare quella assimetria informativa circa le modalità, anche mediante l’uso di strumenti di intelligenza artificiale, attraverso cui intendono realizzare città più sicure; solo così questi ultimi, una volta informati, accettando, condividono queste modalità e partecipano attivamente alla realizzazione di quel fine.</p>
<p style="text-align: justify;">I cittadini devono acquisire maggiore consapevolezza delle logiche utilizzate dalle amministrazioni che si servono di sistemi di intelligenza artificiale e devono farli proprio così da poter partecipare attivamente agli <em>iter</em> decisionali pubblici. In sostanza, gli strumenti di intelligenza artificiale assolvono un duplice scopo che si attanaglia, poi, al principio di trasparenza: consentono, sicuramente, più partecipazione ai cittadini nelle decisioni pubbliche, ma al contempo e a “monte”, necessitano di essere compresi nel loro utilizzo da parte dei cittadini che andranno a servirsene per partecipare alle decisioni pubbliche.</p>
<p style="text-align: justify;">In altri termini, il principio di trasparenza innerva tutte le dinamiche dell’azione pubblica in questo caso anche delle Città intelligenti, dal momento che diviene dirimente rendere comprensibili ai cittadini gli ambiti di impiego delle nuove tecnologie da parte delle amministrazioni pubbliche e consentire loro una conoscenza diffusa e approfondita del loro utilizzo perché possano effettivamente dialogare con le amministrazioni<a href="#_ftn19" name="_ftnref19">[19]</a>.</p>
<p style="text-align: justify;">E in questo senso, si sta muovendo il legislatore, quando, ad esempio, nella disciplina dei contratti pubblici, all’art. 30, commi 2, lettera a) e 5, sull’uso di procedure automatizzate nel ciclo di vita dei contratti pubblici, richiama concetti di conoscibilità e comprensibilità (tradizionalmente corollari del principio di trasparenza) degli strumenti di intelligenza artificiale per consentire la piena partecipazione dei privati alle procedure di affidamento delle commesse pubbliche.</p>
<p style="text-align: justify;">Come anche, più di recente, la legge delega sull’intelligenza artificiale, quando, dal combinato disposto degli artt.14 (relativo all’uso della intelligenza artificiale nella pubblica amministrazione) e 3 (sui principi generali) punta l’attenzione sul principio di trasparenza nella applicazione e utilizzo di sistemi e modelli di intelligenza artificiale, pur sempre assicurando la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo.</p>
<p style="text-align: justify;">Insomma, anche da questa prospettiva, persiste, ancora, la funzione riconosciuta all’intelligenza artificiale strumentale e di supporto all’attività provvedimentale delle pubbliche amministrazioni o, meglio, di supporto nell’ambito delle istruttorie dei procedimenti amministrativi<a href="#_ftn20" name="_ftnref20">[20]</a>.</p>
<p style="text-align: justify;">Altro profilo critico attiene alla portata giuridica della sicurezza urbana come interesse pubblico da perseguire, rispetto al concetto di sicurezza pubblica, sicuramente già noto al nostro ordinamento: il confine tra i due appare, ad oggi, ancora troppo labile e di difficile individuazione non fosse altro perché entrambi le due tipologie di sicurezza si muovono essenzialmente in un’ottica preventiva.</p>
<p style="text-align: justify;">Parte della giurisprudenza costituzionale<a href="#_ftn21" name="_ftnref21">[21]</a> ritiene che la sicurezza urbana integrata, già accennata, ossia basata sul dialogo e sulla collaborazione interistituzionale, abbia un ambito di applicazione differente rispetto alla sicurezza pubblica che attiene più specificatamente ai poteri attribuiti alle autorità volti al mantenimento dell’ordine pubblico, alla sicurezza e alla incolumità dei cittadini, alla tutela della proprietà, al controllo e all’osservanza delle leggi e dei regolamenti.</p>
<p style="text-align: justify;">Questo approdo del giudice delle leggi, infatti, distingue tra sicurezza primaria (o in senso stretto) che affonda le sue ragioni nella logica securitaria e nella sussistenza di un «nucleo duro della sicurezza di esclusiva competenza statale», in cui sono riservate solo allo Stato funzioni primariamente dirette a tutelare beni fondamentali, quali l’integrità fisica o psichica delle persone, la sicurezza dei possessi ed ogni altro bene che assume primaria importanza per l’esistenza stessa dell’ordinamento»: la sicurezza pubblica rientra non in «qualsiasi interesse pubblico alla cui cura siano preposte le pubbliche amministrazioni, dunque, ma soltanto quegli interessi essenziali al mantenimento di una ordinata convivenza civile». E sicurezza cd. secondaria, quella urbana, che assume «una possibile declinazione pluralista, coerente con la valorizzazione del principio autonomistico di cui all’art. 5 della Costituzione…una sicurezza «in senso lato» (o sicurezza secondaria), capace di ricomprendere un fascio di funzioni intrecciate, corrispondenti a plurime e diversificate competenze di spettanza anche regionale»<a href="#_ftn22" name="_ftnref22">[22]</a>.</p>
<p style="text-align: justify;">Ma altro orientamento del giudice delle leggi<a href="#_ftn23" name="_ftnref23">[23]</a> considera la sicurezza urbana strettamente collegata alla tutela della sicurezza pubblica, intesa come attività di prevenzione e repressione dei reati: quest’ultimo, a questo punto, sembra essere il loro tratto in comune e fa rientrare la sicurezza urbana nelle più tradizionali funzioni di ordine pubblico volte a migliorare il contesto sociale e territoriale di riferimento<a href="#_ftn24" name="_ftnref24">[24]</a>.</p>
<p style="text-align: justify;">D’altro canto, il tema della sicurezza non è nuovo nel panorama giuridico nazionale, anzi.</p>
<p style="text-align: justify;">Quello della sicurezza e dell’ordine pubblico hanno da sempre rappresentato gli interessi pubblici al cui raggiungimento era finalizzato il potere pubblico: infatti, il modello accentrato di Stato del periodo liberale<a href="#_ftn25" name="_ftnref25">[25]</a> era tradizionalmente teso a soddisfare un interesse pubblico di tal guisa e l’azione del potere pubblico era essenzialmente caratterizzata dalla concezione autoritaria del rapporto cittadino – amministrazione, nel quale la sicurezza degli individui rappresentava un problema di sicurezza pubblica e, quindi, di ordine pubblico<a href="#_ftn26" name="_ftnref26">[26]</a>.</p>
<p style="text-align: justify;">In sostanza, in coerenza con l’ideologia liberale, le funzioni amministrative dello Stato erano contenute in quelle indispensabili alla conservazione e allo sviluppo della collettività, cioè funzioni di pubblico ordine e di generale conservazione<a href="#_ftn27" name="_ftnref27">[27]</a>.</p>
<p style="text-align: justify;">A tanto, d’altra parte, si allinea la previsione dell’art. 117, comma 1, della Costituzione che attribuisce la potestà legislativa esclusiva in materia di ordine pubblico e sicurezza allo Stato.</p>
<p style="text-align: justify;">Ma questa previsione va ad oggi ridimensionata non solo dal dettato di cui all’art. 118 della Costituzione che, al comma 3, affida sempre alla legislazione statale forme di coordinamento tra Stato e Regioni nella medesima materia e, al comma 4, coinvolge i singoli, in ossequio al principio di sussidiarietà orizzontale, ma anche, nel caso di specie, dal dettato normativo di cui al decreto n. 14 del 2017, innanzi trattato, che quando definisce la sicurezza urbana punta al coinvolgimento di tutti i livelli di governo, anche e soprattutto locali, e dei cittadini, per realizzare il fine comune securitario.</p>
<p style="text-align: justify;">Tuttavia, a definire meglio i contorni delle due tipologie di sicurezza, che rappresentano comunque un «obbligo che incombe allo Stato nella sua funzione amministrativa», appare ancora attuale la riflessione di Alessi<a href="#_ftn28" name="_ftnref28">[28]</a>, che nei <em>Principi di diritto amministrativo</em>, approfondiva la cd. attività amministrativa di <em>polizia </em>intesa nella duplice accezione di “polizia di sicurezza”, ossia con la finalità specifica della tutela dell’ordine pubblico, e “polizia amministrativa”, ossia nella finalità generica della tutela di interessi di altra natura riferiti a specifici rami dell’amministrazione. L’aspetto in comune delle suddette accezioni attiene alla «tutela del tutto sociale o delle sue parti, mediante un’attività volta a volta di osservazione, di prevenzione e di repressione, contro i danni che ad essi potrebbero derivare dall’attività degli individui»<a href="#_ftn29" name="_ftnref29">[29]</a>.</p>
<p style="text-align: justify;">Questa posizione di ontologica e strutturale supremazia e superiorità<a href="#_ftn30" name="_ftnref30">[30]</a> rispetto ai soggetti privati giustificata dal raggiungimento di interessi pubblici come (ora come allora) quello della sicurezza va senza dubbio contestualizzata rispetto alle più recenti dimensioni che assume ad oggi il tema della sicurezza: il concetto di sicurezza, da una parte, è fortemente innervato dalle attuali dinamiche relazionali tra amministrazioni (su tutti i livelli di governo) e privati, dall’altro, consente di stemperare il carattere fortemente autoritativo, grazie a una maggiore partecipazione di questi ultimi.</p>
<p style="text-align: justify;">In altri termini, il tema della sicurezza urbana rappresenta ad oggi il punto di convergenza tra le tradizionali funzioni statali in materia di ordine e sicurezza e le funzioni locali di promozione della qualità di vita dei cittadini, partecipi anch’essi in questo processo migliorativo delle condizioni di sicurezza delle città.</p>
<p style="text-align: justify;">In sostanza, per alcuni versi, si assiste a un ritorno al passato in cui l’azione pubblica diviene funzionale alla realizzazione di interesse pubblico di sicurezza<a href="#_ftn31" name="_ftnref31">[31]</a>, che, però a differenza del passato interessa l’amministrazione, a tutti livelli, soprattutto quello locale, che non si astiene dal coinvolgere il singolo, ma anzi, si premura di renderlo partecipe dal momento che il suo apporto diviene determinante al raggiungimento del fine pubblico securitario.</p>
<p style="text-align: justify;">Il concorso di e tra tutti i livelli di governo e della partecipazione dei cittadini configurano ad oggi  la sicurezza urbana come un «bene plurale, un bene pubblico che deve essere realizzato in maniera integrata e condivisa»<a href="#_ftn32" name="_ftnref32">[32]</a>: la promozione della sicurezza urbana, infatti, passa dai patti di sicurezza, dai poteri sindacali di ordinanza, dalle associazioni dei cittadini di volontariato e dagli strumenti di videosorveglianza ad oggi perfezionati dall’intelligenza artificiale, come esposto, che rappresentano tutti esempi tangibili di partecipazione del privato su tutti i livelli di governo.</p>
<p style="text-align: justify;">Ad oggi, sul tema della sicurezza –a questo punto, sia quella urbana che pubblica – è maturata la consapevolezza e la convinzione della necessità di modelli partecipativi condivisi tra privato e pubblico su tutti i livelli di governo, ad oggi ammantati dall’intelligenza artificiale: in questo senso è condividibile l’attribuzione di un carattere relazionale alla nozione di sicurezza che necessita per essere soddisfatta del coordinamento e dall’integrazione di attività di soggetti istituzionalmente diversi<a href="#_ftn33" name="_ftnref33">[33]</a>.</p>
<p style="text-align: justify;">Questi modelli consentono di limare il concetto stesso di sicurezza nel senso di ricondurla nei binari della Costituzione e dei principi generali della attività amministrativa (di partecipazione, di sussidiarietà, di trasparenza) come in questa sede si è tentato di dimostrare.</p>
<p style="text-align: justify;">Si suggerisce, in sostanza, una lettura costituzionalmente orientata della sicurezza (nella duplice formula e una riaffermazione dei principi generali dell’azione amministrativa, quali in particolare quello di partecipazione tra attori pubblici (statali e locali) e cittadini, che consentono di affrontare a pieno il problema securitario nelle città, anche intelligenti, non solo nell’ottica della prevenzione dei reati, ma anche e soprattutto nella promozione e garanzia di migliori condizioni di vivibilità.</p>
<p style="text-align: justify;">Al di là degli scenari che questa suggestione apre, rimane, tuttavia, la convinzione che l’intelligenza artificiale, come strumento in uso alle amministrazioni, possa coinvolgere, senza dubbio, i soggetti privati, rafforzando il concetto di Città intelligente, di cui nelle premesse si sono descritti i tratti essenziali, in collaborazione interistituzionale tra tutti i livelli di governo.</p>
<p style="text-align: justify;"> Tutto ciò si allinea, d’altro canto, a quanto previsto dalla legge sull’intelligenza artificiale, secondo cui la strategia nazionale per l’intelligenza artificiale favorisce la collaborazione tra amministrazioni pubbliche e tra queste e i soggetti privati (i cittadini) relativamente allo sviluppo e adozione di sistemi di intelligenza artificiale.</p>
<p style="text-align: justify;">L’uso della intelligenza artificiale nelle Città intelligenti serve, in sostanza, a migliorare la qualità della vita dei cittadini di riferimento, anche e soprattutto in termini di sicurezza urbana: l’importante è che venga integrata e adottata in modo etico, responsabile, trasparente e partecipativo, come è nelle intenzioni del legislatore nazionale, secondo il dettato della recente legge sull’intelligenza artificiale.</p>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a> Aa. Vv., <em>Intelligenza artificiale: criticità emergenti e sfide per il giurista</em>, in <em>BioLaw Journal – Riv. BioDiritto, </em>3, 2019, 205 e ss.; Aa. Vv., <em>Il diritto dell’amministrazione pubblica digitale,</em> R. Cavallo Perin e D.U. Galetta (a cura di), Torino, 2020, 119-158; Aa. Vv., <em>Intelligenza artificiale &#8211; Il diritto, i diritti, l’etica, </em>U. RUFFOLO (a cura di), Milano, 2020, 571 e ss.; Aa. Vv., <em>Intelligenza artificiale e diritto: una rivoluzione</em>, A. Pajno, F. Donati, A. Perrucci (a cura di), Bologna, 2022, 88-92; P. CLARIZIA, <em>La digitalizzazione</em>, in <em>Giorn. dir. amm</em>., 3, 2023, 302 e ss.; B. Boschetti, <em>La transizione della pubblica amministrazione verso il modello</em> Government as a platform, in <em>L’amministrazione pubblica nell’era digitale</em>, A. Lalli (a cura di, Torino), 2022, 1 e ss.; F. Cardarelli, <em>Uso della telematica</em>, in <em>Codice dell’azione amministrativa</em>, M.A. Sandulli (a cura di), Milano, 2010, 427 ss.; M. Ippolito, <em>Alcune prospettive di disintermediazione dei processi nella pubblica amministrazione: l’impatto della tecnologia Blockchain</em>, in <em>Rivista Giuridica AmbienteDiritto</em>.it, 2, 2021.; E. Picozza, <em>Politica, diritto amministrativo</em> and artificial intelligence, in <em>Giur. it</em>., 7, 2019, 1657 ss.; L. Torchia, <em>Lo Stato digitale</em>, Bologna, 2023; G. Finocchiaro, <em>La regolazione dell’intelligenza artificiale</em>, in <em>Riv. trim. dir. pubbl</em>., 4, 2022, 1090 e ss.; V. Neri, <em>Diritto amministrativo e intelligenza artificiale: un amore possibile</em>, in <em>Urb. e app.</em>, 2021, 5, 581 e ss.</p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a> Urbano</p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a><em>Architettura per le comunità intelligenti: visione concettuale e raccomandazioni alla pubblica amministrazione</em>, in <a href="http://www.agid.it/"><em>www.agid.it</em></a>, 3 ottobre 2012.</p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> Cfr., da ultimo, G. Bergonzini, <em>Sicurezza della città, tecnologie digitali e intelligenza artificiale: tra regole europee, garanzie costituzionali e autonomia locale</em>, in <em>Federalismi.it</em>, 23 ottobre 2024.</p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a>Cfr., F. Cortese, <em>Dentro il nuovo diritto delle città, </em>in <em>Munus, </em>2016, 2, VII, il quale ritiene che il diverso modo di essere città può superare, sia pur in casi e con strumenti tassativamente stabiliti, il confine della tradizionale cornice giuridico – amministrativa comunale. E lo può fare ufficialmente, istituzionalmente.</p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a>M. Roncayolo, <em>La Città. Storie e problemi della dimensione urbana</em>, Torino, 1978, 8.</p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a>Dizionario Treccani online, <em>Città (voce).</em></p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a>Art. 3 del T.U. Enti Locali.</p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a>Cfr. F. Di Lascio<em>, La regolazione amministrativa degli spazi urbani,</em> in <em>Munus</em>, 2016, 2, 317 e ss., il quale indaga la relazione tra il diritto amministrativo e la città attraverso tre direttrici, tra cui l’ultima attiene al rapporto proprio tra il diritto e la fisicità degli spazi cittadini in cui la componente del territorio assume un rilievo peculiare. Il territorio, infatti, permette il riconoscimento delle città come oggetti giuridici particolari.</p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a>M. Caporale, <em>L’intelligenza si ripartisce o si condivide?, A proposito di </em>smartness<em>, livelli di governo e una certa idea di città</em>, in <em>Istituzioni del federalismo</em>, 2015, 4, 857 e ss.., 860.</p>
<p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a>Cfr. E. Ferrero, <em>Le smart cities nell’ordinamento giuridico, </em>in<em> Foro amm., </em>2015, 4, 1267 e ss., il quale afferma che la tecnologia può essere intesa come  strumento efficace di eliminazione delle forme di intermediazione del potere amministrativo.</p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a> Cfr. sulle molteplici accezioni di sicurezza, D. Coduti, <em>La libertà di riunione in discussione. L’art. 17 della Costituzione e la sfida della sicurezza</em>, Bari, 2022 e R. Ursi, <em>La sicurezza pubblica</em>, Bologna, 222. Cfr. sul tema della sicurezza urbana, G. Tropea, <em>Periferie e sicurezza urbana</em>, <em>Periferie e diritti fondamentali</em>, Napoli, 2020.</p>
<p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> Cfr. F. Morganti, <em>La sicurezza urbana nel c.d. “decreto Minniti”, </em>in <em>Democrazia e Sicurezza, </em>2017, 3.</p>
<p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> T.F. Giupponi, <em>Sicurezza integrata e </em>welfare<em> di comunità</em>, Bologna, 2022.</p>
<p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> Art.1, comma 2, definisce sicurezza integrata come «l’insieme degli interventi assicurati dallo Stato, dalle Regioni, dalle Province autonome di Trento e Bolzano e dagli enti locali, nonché da altri soggetti istituzionali, al fine di concorrere, ciascuno nell’ambito delle proprie competenze e responsabilità, alla promozione e all’attuazione di un sistema unitario e integrato di sicurezza per il benessere delle comunità territoriali».</p>
<p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> In riferimento al Sindaco quale rappresentante del territorio, il T.u.e.l. già disponeva all’art. 50, c. 5, che «in caso di emergenze sanitarie o di igiene pubblica a carattere esclusivamente locale le ordinanze contingibili e urgenti sono adottate dal sindaco, quale rappresentante della comunità locale». Si è così aggiunto, dopo tale periodo: «Le medesime ordinanze sono adottate dal sindaco, quale rappresentante della comunità locale, in relazione all’urgente necessità di interventi volti a superare situazioni di grave incuria o degrado del territorio, dell’ambiente e del patrimonio culturale o di pregiudizio del decoro e della vivibilità urbana, con particolare riferimento alle esigenze di tutela della tranquillità e del riposo dei residenti, anche intervenendo in materia di orari di vendita, anche per asporto, e di somministrazione di bevande alcoliche e superalcoliche».</p>
<p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> A. Barone, <em>Amministrazione del rischio e intelligenza artificiale</em>, <em>in European Review of Digital Administration</em> &amp; Law – Erdal, vol. I, Issue, 1- 2, 2020, 63-67.; G. Finocchiaro, <em>La proposta di regolamento sull’intelligenza artificiale: il modello europeo basato sulla gestione del rischio</em>, in <em>Diritto dell’informazione e dell’informatica</em>, 2, 2022, 303 e ss.</p>
<p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> D.U. Galetta, <em>Transizione digitale e driitto ad una buona amministrazione: fra prospettive aperte per le pubbliche amministrazioni dal Piano Nazionale di Ripresa e Resilienza e problemi ancora da affrontare</em>, in <em>www.federalismi.it</em>, 7, 2022, 103-125.; I. Macrì., <em>Il PNRR italiano per la digitalizzazione e l’innovazione della pubblica amministrazione</em>, in <em>Azienditalia</em>, 1, 2022, 38 e ss.</p>
<p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> Cfr. A. Corrado, <em>I nuovi contratti pubblici, intelligenza artificiale e </em>blockchain<em>: le sfide del prossimo futuro</em>, in <em>Federalismi.it</em>, 2023, 19.</p>
<p style="text-align: justify;"><a href="#_ftnref20" name="_ftn20">[20]</a> G. Gardini, <em>L’uso preparatorio dell’AI come limite agli eccessi regolativi. Per una valutazione “in concreto” dell’intelligenza artificiale applicata all’agire pubblico</em>, in <em>Le Istituzioni del federalismo</em>, aprile/giugno 2025, 261.</p>
<p style="text-align: justify;"><a href="#_ftnref21" name="_ftn21">[21]</a> Corte Cost. n. 47 del 2024.</p>
<p style="text-align: justify;"><a href="#_ftnref22" name="_ftn22">[22]</a> Cfr. Corte Cost., 23 dicembre 2019, n. 285 che richiama anche la sentenza del giudice delle leggi n. 290 del 2001.</p>
<p style="text-align: justify;"><a href="#_ftnref23" name="_ftn23">[23]</a> Corte Cost. n. 196 del 2009, 226 e 274 del 2010, 115 del 2011.</p>
<p style="text-align: justify;"><a href="#_ftnref24" name="_ftn24">[24]</a> Precisa la Corte nella sentenza n. 285 del 2019, punto 2.5. che «In tal senso, il menzionato decreto-legge ha disciplinato in senso ampio e trasversale le «forme di coordinamento» previste dall’art. 118, terzo comma, Cost., coinvolgendo gli enti regionali non solo quali terminali delle scelte compiute dallo Stato in materia di ordine pubblico e sicurezza, ma anche come portatori di interessi che, ancorché non direttamente afferenti alla materia di cui all’art. 117, secondo comma, lettera h), Cost., sono teleologicamente connessi alla competenza esclusiva statale. Nel disegno del legislatore statale, infatti, l’intervento regionale dovrebbe assicurare le precondizioni per un più efficace esercizio delle classiche funzioni di ordine pubblico, per migliorare il contesto sociale e territoriale di riferimento, postulando l’intervento dello Stato in relazione a situazioni non altrimenti correggibili se non tramite l’esercizio dei tradizionali poteri coercitivi».</p>
<p style="text-align: justify;"><a href="#_ftnref25" name="_ftn25">[25]</a> Cfr., V. OTTAVIANO, <em>Cittadino e amministrazione nella concezione liberale, </em>in <em>Studi in onore di G. Auletta, </em>Milano, 1988, vol. III, 481 e ss. e in <em>Scritti giuridici, </em>Milano, vol. I, 1992, 49 il quale si sofferma sul tipo di organizzazione fortemente accentrata del periodo liberale, ossia «scarsamente aperta ad influenze dirette da parte della società, e che, almeno secondo il modello ideale a cui avrebbe dovuto corrispondere, operava obiettivamente e quindi in grado di sottrarsi ad indebite inframmettenze politiche».</p>
<p style="text-align: justify;"><a href="#_ftnref26" name="_ftn26">[26]</a> Sull’evoluzione dei poteri dell’amministrazione, cfr. V. OTTAVIANO, <em>Poteri dell’amministrazione e principî costituzionali, </em>in <em>Riv. trim. dir. pubblico, </em>1964, 912 e ss. e in <em>Scritti giuridici, </em>Milano, vol. I, 1992, 13 e ss. Cfr. anche A. BARONE, <em>Il diritto del rischio,</em> Milano, 2006, 8 e ss. constata che l’azione del potere pubblico era caratterizzata nello Stato monoclasse dalla concezione autoritaria del rapporto cittadino – amministrazione, nel quale la sicurezza degli individui è un problema di sicurezza pubblica e, quindi, di ordine pubblico.</p>
<p style="text-align: justify;"><a href="#_ftnref27" name="_ftn27">[27]</a> Cfr., V. OTTAVIANO, <em>Cittadino e amministrazione, op. cit., </em>40 afferma che «L’azione diretta a facilitare il soddisfacimento dei bisogni fisici ed economici dell’individuo, a diffondere l’educazione e la cultura, etc., veniva vista così in funzione di tutela preventiva dell’ordine sociale e quindi come ausilio dell’attività di polizia vera e propria. Contribuiva al rafforzamento di tale tendenza la convinzione che lo Stato dovesse limitare il più possibile i suoi interventi in campi diversi da quelli della garanzia dell’ordine pubblico».</p>
<p style="text-align: justify;"><a href="#_ftnref28" name="_ftn28">[28]</a> R. ALESSI, <em>Principi di diritto amministrativo</em>, Milano, 1978, Tomo II, 589 e ss.</p>
<p style="text-align: justify;"><a href="#_ftnref29" name="_ftn29">[29]</a> Cfr., E. BOSCOLO – M. CAFAGNO, <em>Lo “Stato dispensatore”: le prestazioni di servizio pubblico tra universalismo e selettività, </em>in <em>Diritto amministrativo e Corte Costituzionale, </em>a cura di G. DELLA CANANENA – M. DUGATO, Napoli, 2006, 87 e ss. e sulla nozione di polizia amministrativa nell’evoluzione storico-legislativa, G. MANFREEDI, <em>La nozione di polizia amministrativa nel diritto italiano</em>, 2011.</p>
<p style="text-align: justify;"><a href="#_ftnref30" name="_ftn30">[30]</a> <em>Ex mulits</em>, V. E. ORLANDO, <em>Principii di diritto amministrativo</em>, Firenze, II ed., 1892, 229 e ss. si sofferma sul ruolo dello Stato, che “nell’agire, comanda” e afferma che «Dal punto di vista del diritto amministrativo, importa stabilire questa prima e generale verità, cioè che lo Stato, per il raggiungimento dei suoi fini, dichiara la sua volontà, e questa volontà, discendendo dal diritto d’impero, deve essere <em>ubbidita</em>”, tanto da considerare le persone a cui il comando dello Stato (che serve per attuare i fini dell’amministrazione pubblica) è diretto, dei sudditi. La manifestazione dell’attività amministrativa era considerata come espressione di atti unilaterali di “imperio”, tra i quali il più tipico è il provvedimento amministrativo che si caratterizza per l’attributo dell’autorietà, consistente nella “ possibilità di produrre unilateralmente nella sfera giuridica di altri soggetti le modificazioni giuridiche previste dalle proprie statuizioni».</p>
<p style="text-align: justify;">Cfr. anche A.M. SANDULLI, <em>Manuale di diritto amministrativo</em>, Napoli, 1984, 593 e ss. La posizione dell’amministrazione statale assume così un ruolo che, giustamente, può dirsi di primazia, che comporta, sul piano dell’attività amministrativa, la possibilità di fruire di amplissimi poteri discrezionali di fatto incontrollati. Infatti, i controlli giurisdizionali sulle amministrazioni pubbliche, nel pieno rispetto del principio della separazione dei poteri, sono, quasi per l’intero secolo, pochi e poco penetranti: in Italia le prime sentenze nelle quali si usi l’eccesso di potere come strumento di lettura dell’attività amministrativa sono degli anni ’90 del XIX secolo, dopo l’istituzione della IV sezione del Consiglio di Stato nel 1889.</p>
<p style="text-align: justify;"><a href="#_ftnref31" name="_ftn31">[31]</a> Cfr., V. OTTAVIANO, <em>Cittadino e amministrazione, op. cit.,</em> 38 sottolinea il ruolo ricoperto dalla beneficenza concepita «non come una prestazione da rendere a chi si trovava in stato di bisogno, ma come un modo per attenuare le tensioni sociali, eliminando in via preventiva alcune delle cause che potevano turbare l’ordine pubblico». L’A. aggiunge che «le prestazioni assistenziali potevano giustificarsi solo a favore di coloro che non erano in grado di provvedere a se stessi, quali i minori, gli orfani, i vecchi. Da ciò la necessità di distinguere fra bisognosi meritevoli di assistenza e coloro che invece non lo erano. L’assistenza in definitiva mirava nelle sue varie forme al controllo delle classi povere».</p>
<p style="text-align: justify;"><a href="#_ftnref32" name="_ftn32">[32]</a> V. Antonelli, <em>La sicurezza delle città tra luci e ombre</em>, in <em>Labsus </em>e, in maniera più approfondita, Id., <em>Sicurezza delle città tra diritti ed amministrazione</em>, Padova, 2018.</p>
<p style="text-align: justify;"><a href="#_ftnref33" name="_ftn33">[33]</a> A. Pajno, <em>La “sicurezza urbana” tra poteri impliciti e inflazione normativa</em>, in <em>La sicurezza urbana</em>, a cura di A. Pajno, Collana Astrid.</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/lintelligenza-artificiale-al-servizio-della-sicurezza-urbana-nelle-citta-intelligenti-una-nuova-dimensione-del-rapporto-con-il-cittadino/">L’intelligenza artificiale al servizio della sicurezza urbana nelle Città intelligenti: una nuova dimensione del rapporto con il cittadino</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</title>
		<link>https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Thu, 30 Oct 2025 10:43:55 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=90031</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/">Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</a></p>
<p>Sebastiano Napolitano* Abstract: L’inserimento negli atti difensivi di citazioni giurisprudenziali inesistenti (cd. allucinazioni), generate dall’Intelligenza Artificiale (IA), viola i doveri di lealtà e probità da parte del Difensore. La nota analizza il principio di centralità del controllo umano (human in the loop), alla luce del quadro normativo (AI Act, L.132/2025,</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/">Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/">Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</a></p>
<p style="text-align: justify;"><strong>Sebastiano Napolitano*</strong></p>
<p style="text-align: justify;"><strong>Abstract:</strong></p>
<p style="text-align: justify;">L’inserimento negli atti difensivi di citazioni giurisprudenziali inesistenti (cd. allucinazioni), generate dall’Intelligenza Artificiale (IA), viola i doveri di lealtà e probità da parte del Difensore. La nota analizza il principio di centralità del controllo umano (<em>human in the loop)</em>, alla luce del quadro normativo (AI Act, L.132/2025, CEPEJ), sulle risposte generate (<em>output</em>) dall’IA alle richieste (<em>prompts</em>) di ricerca giurisprudenziale.</p>
<p style="text-align: justify;">Abstract:</p>
<p style="text-align: justify;"><em>The inclusion in the defence documents of non-existent jurisprudential citations (</em>so-called hallucinations<em>), generated by Artificial Intelligence (</em>AI<em>), violates the duties of loyalty and probity on the part of the Defender. The note analyzes the principle of centrality of human control (</em>human in the loop<em>), </em><em>in the light of the regulatory framework (AI Act, L.132/2025, CEPEJ), on the responses generated (</em>output<em>) by AI to the requests (</em>prompts<em>) of jurisprudential research. </em></p>
<p style="text-align: justify;"><strong>SOMMARIO :</strong></p>
<p style="text-align: justify;"><strong>-1. Premessa -2. </strong><strong>La Giustizia Predittiva</strong><strong> -3. La prevedibilità delle decisioni -4. Il ruolo dei precedenti</strong><strong> &#8211; 5. </strong><strong>Limiti all’uso dell’IA nella giustizia -6. Allucinazioni -7.</strong><strong> Il fatto -8. Le argomentazioni del Collegio -9. Inquadramento normativo della vicenda -10. La soluzione adottata dal TAR -11. Conclusioni</strong></p>
<ol style="text-align: justify;">
<li><strong> PREMESSA</strong></li>
</ol>
<p style="text-align: justify;">L’automazione generata dalle nuove tecnologie è in grado di cambiare le dinamiche lavorative<a href="#_ftn1" name="_ftnref1">[1]</a>.</p>
<p style="text-align: justify;">L’uso dell’intelligenza artificiale (d’ora innanzi, “IA”), ormai dovunque diffuso e pressoché generalizzato, non rappresenta solo una nuova tecnologia, ma una vera e propria rivoluzione industriale (presente e non futura), un’opportunità da cogliere e governare, perché in grado di garantire un indubbio miglioramento nella disponibilità e nel controllo delle informazioni necessarie per giungere, attraverso una migliore, più rapida e completa individuazione di precedenti giurisprudenziali, alla previsione del probabile esito di una controversia (cd. giustizia predittiva).</p>
<ol style="text-align: justify;" start="2">
<li><strong> LA GIUSTIZIA PREDITTIVA</strong></li>
</ol>
<p style="text-align: justify;">Come argutamente osservato dalla Dottrina<a href="#_ftn2" name="_ftnref2">[2]</a>, poiché l’espressione “giustizia predittiva” viene utilizzata in diverse accezioni, è opportuno chiarire che la “giustizia predittiva in senso lato”<a href="#_ftn3" name="_ftnref3">[3]</a>, che “mira all’individuazione, attraverso strumenti di data <em>research analysis</em>, dei precedenti giudiziari in grado di (o, forse meglio, utili a) <em>pre-dicere</em> l’esito di una controversia non ancora avviata o comunque non decisa”, va tenuta distinta dalla “giustizia predittiva in senso stretto”, che, “collocandosi all’interno del procedimento decisionale<a href="#_ftn4" name="_ftnref4">[4]</a>, ha a che vedere in realtà più con lo <em>jus dicere</em> (cd. algoritmo decisore), che con il <em>jus pre-dicere</em>” (cd. algoritmo predittore)<a href="#_ftn5" name="_ftnref5">[5]</a>.</p>
<p style="text-align: justify;">Grazie alla rapidissima evoluzione tecnologica, abbiamo, ora, a disposizione “sistemi che non si limitano più a basarsi su sistemi esperti che fondandosi su regole predefinite seguono programmi specifici o sistemi di apprendimento automatico o che apprendono dai dati di addestramento e inferiscono regole per prevedere risultati specifici, ma sistemi che combinano questi vantaggi, aggiungendo la capacità di rispondere al contesto e fornire spiegazioni sul processo decisionale. Sistemi che &#8220;apprendono&#8221; man mano che analizzano i dati, distinguendosi dall&#8217;apprendimento umano, e che hanno bisogno di moltissimi dati, dati che devono essere affidabili e di qualità”<a href="#_ftn6" name="_ftnref6">[6]</a>.</p>
<ol style="text-align: justify;" start="3">
<li><strong> LA PREVEDIBILITÀ DELLE DECISIONI </strong></li>
</ol>
<p style="text-align: justify;">Alla meta della calcolabilità<a href="#_ftn7" name="_ftnref7">[7]</a> delle decisioni giudiziarie<a href="#_ftn8" name="_ftnref8">[8]</a>, quale corollario della certezza del diritto<sup>9</sup>, si può, dunque, giungere, a questo punto dell’avanzamento tecnologico, attraverso il supporto di una sempre più evoluta tecnologia e, in particolare, mediante l’impiego dell’IA<a href="#_ftn9" name="_ftnref9">[9]</a>, in cui le metodiche di selezione del materiale archiviato in banche dati trascendono l’argomento per sfociare «<em>nella regola del caso concreto</em>».</p>
<p style="text-align: justify;">Tutto quello che può rendere prevedibile – e, quindi, conseguentemente “certa” – la giustizia, deve essere incoraggiato, perché idoneo a favorire scambi commerciali, libertà di stabilimento e ridurre i costi per le imprese<a href="#_ftn10" name="_ftnref10">[10]</a>; tuttavia l’intuibile pericolo di uno scivolamento verso sistemi del  <em>common law</em>, per l’inevitabile rafforzamento della “vincolatività” del precedente<a href="#_ftn11" name="_ftnref11">[11]</a>, quale conseguenza della maggiore trasparenza e diffusione di precedenti specifici, può essere bilanciato, dalla sinergia dei formanti giurisprudenziali e dottrinali, nonché dall’apporto professionale degli operatori del diritto, operanti nel processo, che grazie alla puntuale e ragionata estrazione della giurisprudenza di merito e legittimità, a fronte del mutare di istanze provenienti dalla realtà sociale, ben potrà e saprà compiere scelte (interpretative), anche coraggiose ed innovative, senza per ciò stesso rendere meno valido il perseguimento della “certezza del diritto” e conseguente prevedibilità della decisione.</p>
<ol style="text-align: justify;" start="4">
<li><strong> IL RUOLO DEI PRECEDENTI</strong></li>
</ol>
<p style="text-align: justify;">L’IA utilizza il precedente per individuare regole e orientamenti, favorendo uniformità e prevedibilità delle decisioni; tuttavia, è centrale l’apporto umano sia sotto il fondamentale profilo del controllo di quanto generato dall’IA, sia per la indubbia e sempre garantita possibilità da parte del formante dottrinario, come già accennato, di concorrere al mutamento d’indirizzo.</p>
<p style="text-align: justify;">Il valore della prevedibilità delle decisioni, invero, non significa postulare un immobilismo giuridico mediante l’imposizione di un vincolo di automatica conformazione<a href="#_ftn12" name="_ftnref12">[12]</a>, ma significa assicurare uniformità, laddove manchino valide argomentazioni a sostegno del dissenso tali da determinare la costruzione condivisa di un opposto, nuovo o più autorevole indirizzo<a href="#_ftn13" name="_ftnref13">[13]</a>; riferendosi la prevedibilità delle decisioni non tanto all’astratta previsione legale, bensì alla norma vivente risultante dall’applicazione e dall’interpretazione dei giudici, in stretto raccordo con le fonti costituzionali e sovranazionali<a href="#_ftn14" name="_ftnref14">[14]</a>.</p>
<ol style="text-align: justify;" start="5">
<li><strong> LIMITI ALL’USO DELL’IA NELLA GIUSTIZIA </strong></li>
</ol>
<p style="text-align: justify;">La Giustizia rientra nella Fascia ad «alto rischio» nell’uso di IA, con <u>obbligo</u> di valutazione di conformità, trasparenza, sorveglianza umana e monitoraggio post-commercializzazione .</p>
<p style="text-align: justify;">È necessario, dunque, chiedersi come e in che limiti l&#8217;IA possa essere utilizzata dagli operatori del diritto.</p>
<p style="text-align: justify;">L’uso dell’IA (a supporto, redazione, analisi etc) &#8211; vale subito anticipare prima di richiamare il caso esaminato nella decisione del TAR in commento &#8211; è consentito purché con stretta supervisione e controllo umano (cd.<em>human in the loop) </em> .</p>
<ol style="text-align: justify;" start="6">
<li><strong> ALLUCINAZIONI</strong></li>
</ol>
<p style="text-align: justify;">Un’allucinazione è una risposta generata dall’IA che appare plausibile ma è inventata, priva di fondamento nei dati reali o nelle fonti affidabili. È una delle principali sfide dei modelli generativi.</p>
<ol style="text-align: justify;" start="7">
<li><strong> IL FATTO</strong></li>
</ol>
<p style="text-align: justify;">Nel caso all’esame il Collegio verificato che nel ricorso tutte le sentenze citate a sostegno dell’affermazione dell’illegittimità dei provvedimenti impugnati richiamavano estremi di pronunce non pertinenti e le massime indicate in molti casi erano riferibili ad orientamenti giurisprudenziali non noti, ai sensi dell’art. 88 cod. proc. civ., applicabile al processo amministrativo in forza del rinvio contenuto nell’art. 39 cod. proc. amm., disponeva l’invio di copia della sentenza al Consiglio dell’Ordine degli Avvocati di Milano stigmatizzando la violazione da parte del Difensore (che in sede di trattazione orale, alla richiesta di chiarimenti sul punto, aveva candidamente ammesso di aver citato, nel ricorso, della giurisprudenza reperita mediante l’uso di strumenti di ricerca basati sull’intelligenza artificiale che avevano evidentemente generato risultati errati)  del dovere di   comportarsi in giudizio con lealtà e probità, avendo omesso la doverosa attività di controllo della giurisprudenza citata (rectius: generata dall’IA) e dei principi dalla stessa apparentemente affermati.</p>
<ol style="text-align: justify;" start="8">
<li><strong> LE ARGOMENTAZIONI DEL COLLEGIO</strong></li>
</ol>
<p style="text-align: justify;">La condotta posta in essere dal Difensore che riporta, negli atti difensivi citazioni giurisprudenziali &#8211; per avvalorare la propria tesi – inesistenti (…“<em>non pertinenti e massime … riferibili ad orientamenti giurisprudenziali non noti</em>”), perché frutto delle cd. allucinazioni dell’IA, pone in essere una condotta che viola il “<em>dovere del difensore di comportarsi in giudizio con lealtà e probità, in quanto introduce elementi potenzialmente idonei ad influenzare il contraddittorio processuale e la fase decisoria verso un percorso non corretto, e perché rende inutilmente gravosa, da parte del giudice e delle controparti, l’attività di controllo della giurisprudenza citata e dei principi dalla stessa apparentemente affermati</em>”. Nessuna valenza esimente può, poi, riconoscersi alla dichiarazione del Difensore di essersi avvalso nella ricerca dell’Intelligenza Artificiale, “<em>in quanto la sottoscrizione degli atti processuali ha la funzione di attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori o di strumenti di intelligenza artificiale</em>.”</p>
<ol style="text-align: justify;" start="9">
<li><strong> INQUADRAMENTO NORMATIVO DELLA VICENDA </strong></li>
</ol>
<p style="text-align: justify;">In punto di regolamentazione, il primo  presidio, in materia, è arrivato dalla Cepej<a href="https://www.agendadigitale.eu/documenti/giustizia-digitale/ai-e-giusto-processo-facciamo-il-punto-le-norme-le-applicazioni-le-sentenze/#_ftn10"> (Commissione europea per l’efficienza della giustizia</a>), che ha enucleato, nel 2018, una serie di principi<a href="#_ftn15" name="_ftnref15">[15]</a>, contenuti nella <a href="https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348">Car</a>ta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla CEPEJ nel corso della sua Riunione plenaria (Strasburgo, 3-4 dicembre 2018).</p>
<p style="text-align: justify;">La direzione impressa dalla Commissione, non è quella di una cd. “Giustizia algoritmica” <a href="#_ftn16" name="_ftnref16">[16]</a>, <em>id est, </em>l’impiego di “macchine intelligenti”<a href="#_ftn17" name="_ftnref17">[17]</a> in grado (di <em>jus-dicere</em>) di sviluppare un ragionamento artificiale,<a href="#_ftn18" name="_ftnref18">[18]</a> da utilizzare per motivare sentenze  scritte con “foglie” di algoritmi, sospinte dal vento all’esterno di una “banca dati”, quale ”Antro della Sibilla”<a href="#_ftn19" name="_ftnref19">[19]</a> <em>ante litteram</em>, come scampoli motivazionali – accostati casualmente e logicamente validi, ma, non giuridicamente prevedibili e trasparenti (tanto che ad ogni interrogazione delle dette “<em>Justice Machines</em>”, per diverso accostamento, le soluzioni proposte inevitabilmente si presentano diverse e finanche opposte)-  perché  i Difensori possano trarre “vaticinio” <a href="#_ftn20" name="_ftnref20">[20]</a>; ma ferma, la centralità della persona del Giudice, secondo le indicazioni provenienti dalle fonti europee che promuovono un&#8217;IA affidabile e antropocentrica<a href="#_ftn21" name="_ftnref21">[21]</a>, è necessario individuare e far ricorso ad un algoritmo che sia strumento ancillare, ma, al contempo, pregnante nell’attività giudiziaria (il riferimento è appunto agli strumenti di <em>data research analysis</em>, quali quelli di cui è già dotata la Banca dati merito), in grado di trasformare gli obiettivi  di rapidità e prevedibilità delle decisioni, in azioni concrete e realizzabili<a href="#_ftn22" name="_ftnref22">[22]</a>.</p>
<p style="text-align: justify;">Più di recente, il 13 giugno 2024,  è stato approvato dal Parlamento Europeo e dal Consiglio il Regolamento (UE) 2024/1689, noto anche come AI Act<a href="#_ftn23" name="_ftnref23">[23]</a>.</p>
<p style="text-align: justify;">Questo regolamento stabilisce regole armonizzate per lo sviluppo, l&#8217;immissione sul mercato e l&#8217;uso dei sistemi di IA nell&#8217;Unione Europea.</p>
<p style="text-align: justify;">Al centro della legislazione si rimarca la preservazione dell’autonomia umana, si sottolinea che l’IA deve servire come strumento per amplificare, e non sostituire, il potere decisionale umano<a href="#_ftn24" name="_ftnref24">[24]</a>.</p>
<p style="text-align: justify;">L’intento è chiaro: l’IA deve essere un’alleata dell’umanità, non una forza che ne mina l’autodeterminazione.</p>
<p style="text-align: justify;">In sede nazionale,  il Consiglio dei Ministri ha iniziato a confrontarsi sul tema dell’avvento della IA nella giustizia<a href="#_ftn25" name="_ftnref25">[25]</a> con il Disegno di legge n. 1146.<a href="#_ftn26" name="_ftnref26">[26]</a></p>
<p style="text-align: justify;">Il Presidente del Consiglio dei Ministri e il Ministro della giustizia, hanno, invero, presentato un disegno di legge approvato dal Senato &#8211; n.S.1146- in data 20 marzo 2024, comunicato alla Presidenza in 20 maggio 2024, recante Disposizioni e delega al Governo in materia di intelligenza artificiale, con l’intento di dettare una normativa nazionale che “<em>senza sovrapporsi al regolamento UE predisponga un sistema di principi, governance e misure specifiche adatte al contesto italiano per cogliere tutte le opportunità dell’intelligenza artificiale</em>”.</p>
<p style="text-align: justify;">Tra gli obiettivi espressi, vi è quello di garantire ai cittadini italiani l&#8217;uso affidabile e responsabile dell&#8217;IA, assicurando la supervisione umana in ogni fase di sviluppo e di utilizzo dei sistemi IA per la tutela dei diritti fondamentali.</p>
<p style="text-align: justify;">L’approccio della normazione nazionale è, dunque, duplice:</p>
<p style="text-align: justify;"> &#8211; da una parte, la promozione di un utilizzo corretto, trasparente e responsabile dell’intelligenza artificiale, in una dimensione antropocentrica, per coglierne pienamente le enormi opportunità (art. 1, comma 1, secondo periodo);</p>
<p style="text-align: justify;">&#8211; dall’altra, la necessaria vigilanza sui potenziali rischi economici e sociali e sull’impatto sui diritti fondamentali, con gli strumenti propri dell’ordinamento nazionale (art. 1, comma 1, terzo periodo).</p>
<p style="text-align: justify;">Il testo approvato con modificazioni alla Camera, C.2316, in data 25 giugno 2025 è stato approvato definitivamente al Senato, S.1146-B, in data 17 novembre 2025 ed è ora una Legge dello Stato, la n.132 del 23 settembre 2025, recante “Disposizioni e deleghe<a href="#_ftn27" name="_ftnref27">[27]</a> al Governo in materia di intelligenza artificiale (25G00143)”, pubblicata nella GU n.223 del 25.09.2025 ed entrata in vigore il 10.10.2025.</p>
<p style="text-align: justify;">Questa legge affianca il nascente quadro UE (AI Act) fissando principi <strong>antropocentrici</strong> e limiti all’IA, in modo che <strong>serva da supporto e non sostituisca mai l’uomo</strong>.</p>
<p style="text-align: justify;">La legge nazionale <strong>abilita l’uso dell’IA</strong> in ambito legale e giudiziario per sfruttarne i benefici di efficienza, ma pone <strong>paletti stringenti</strong> a tutela dei principi fondamentali: <strong>il giudice è insostituibile</strong> nel processo decisionale, l’<strong>avvocato mantiene il controllo</strong> sulla consulenza al cliente; la <strong>trasparenza e la responsabilità</strong> fanno da cornice all’uso dell’IA (si pensi all’obbligo da parte del Difensore di informare il cliente sull’uso di IA, e alla responsabilità personale degli output generati dall’IA copiati negli atti).</p>
<ol style="text-align: justify;" start="10">
<li><strong> LA SOLUZIONE ADOTTATA DAL TAR</strong></li>
</ol>
<p style="text-align: justify;">Ne risulta, che le argomentazioni sviluppate dal Collegio, che tra l’altro richiama “La carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense” redatta dall’Ordine degli Avvocati di Milano nel 2024, si pone in linea con il contesto normativo eurounitario, oltre che con la novella legislativa nazionale, che affermato il principio antropocentrico nell’uso delle nuove tecnologie che &#8211; utilizzabili<strong> per “coadiuvare”, ma mai “sostituire”</strong> l’operatore del diritto &#8211;  impone un preciso dovere in capo all’operatore del diritto di verifica e controllo dell’esito delle ricerche &#8211; attraverso il <strong>grounding (</strong>l’ancoraggio dell’output generato dall’IA a fonti documentali reali<strong>) &#8211;</strong> effettuate con i sistemi di intelligenza artificiale, la cui inosservanza è fonte di responsabilità per violazione del dovere del difensore di comportarsi in giudizio con lealtà, correttezza e probità.</p>
<ol style="text-align: justify;" start="11">
<li><strong> CONCLUSIONI</strong></li>
</ol>
<p style="text-align: justify;">Chi usa l’IA in ambito forense <strong>deve verificare</strong> gli output e <strong>risponde personalmente</strong> delle citazioni false o non pertinenti; l’omissione integra <strong>violazione deontologica</strong> e può dar luogo a <strong>segnalazione all’Ordine</strong>, oltre alle ordinarie conseguenze processuali.</p>
<p style="text-align: justify;">25 ottobre 2025</p>
<p style="text-align: justify;">Sebastiano Napolitano</p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1"></a>* <strong>Sebastiano Napolitano</strong>, <em>Magistrato. Segretario Generale della Corte di Appello di Napoli. Consigliere della Corte di Appello di Napoli, sezione Lavoro. Giudice della Corte di Giustizia Tributaria di Secondo Grado Campania</em></p>
<p style="text-align: justify;">[1] <em>S.</em> Napolitano, <em>Un algoritmo per </em>pre-dicere,<em> ma non dall’“antro della Sibilla” in</em> Focus sulla giustizia predittiva “La transazione digitale la nuova dimensione del lavoro (parte 1^) n.1/2025 12.3.2025 in Lavoro Diritti Europa _LDE</p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a>  M. Biasi, <em>Intelligenza artificiale e processo: verso un robot-giudice per le controversie lavoristiche?</em>, in Id. (a cura di), <em>Diritto del lavoro e intelligenza artificiale</em>, Giuffrè, 2024, n. 739.</p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a> M. Sciacca, <em>Algoritmo e Giustizia alla ricerca di una mite predittività, </em>in Persona e Mercato 2023/1- Commenti<em>, i</em>l saggio esamina le opportunità e i rischi dell’intelligenza artificiale applicata alla giustizia, con particolare attenzione ai progetti nazionali e internazionali di “giustizia predittiva”. L’autore riconosce il valore ausiliario dell’IA per giudici e operatori, ma sottolinea la necessità di limiti costituzionali e di un controllo umano effettivo, per evitare automatismi decisionali e garantire trasparenza, comprensibilità e tutela dei diritti fondamentali. Viene proposta una “predittività mite”, in cui l’IA supporta ma non sostituisce il giudizio umano, e si auspica una regolazione attenta e un approccio cooperativo tra istituzioni, tecnologia e cultura</p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> “<em>Giudizio è un vocabolo polivalente. Replicando la notissima distinzione di Giovanni Tarello</em>” G. Tarello, <em>Orientamenti analitico-linguistici e teoria dell’interpretazione giuridica</em>, in U. Scarpelli, a cura di, Diritto e analisi del linguaggio, Milano 1976 “<em>tra interpretazione attività  e interpretazione prodotto, possiamo distinguere tra giudizio attività</em> <em>(come processo mentale di discernimento, di scelta e di decisione) e giudizio prodotto (come esito di tale attività giudicatrice). E similmente si potrebbe distinguere tra decisione come atto del decidere e decisione come contenuto di quell’atto</em>”. In questi termini G. Zaccaria, <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, in Rivista di diritto civile 2020, 2 n. 278.</p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a> In argomento sulla distinzione L. Viola, <em>Giustizia predittiva</em>, in Treccani Online, 2018 (www.treccani.it, v., <em>amplius</em>, Id., <em>L’interpretazione della legge secondo modelli matematici</em>, Roma, 2018 A. Santosuosso, G. Sartor, <em>La giustizia predittiva: una visione realistica</em>, in E. GABRIELLI, M. Dell’Utri (a cura di), <em>La giustizia predittiva</em>, in Giur. It., 2022, 7, n.1771; G. Zaccaria, <em>Mutazioni del diritto: innovazione tecnologica e applicazioni predittive</em>, in Ars Interpretandi, 2021, 1, n. 40; Id. <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, in Riv.dir.Civ, 2020, 2, n. 277 ; U. Ruffolo, <em>Giustizia predittiva, decisione algoritmica e ruolo ancillare della machina come ausiliare necessario del giudice umano</em>, in A. Pajno, F. Donati, A. Perrucci (a cura di), <em>Intelligenza artificiale e diritto: una rivoluzione?</em>, vol. II, <em>Amministrazione, responsabilità, giurisdizione</em>, Bologna, 2022, n. 453 ss.; nella letteratura internazionale, v. T. Sourdin, <em>Judge v Robot?</em> <em>Artificial Intelligence and Judicial Decision-Making</em>, in UNSW Law Journal, 2018, 41(4), n. 1114 ss., che si riferisce a <em>replacing</em> e a <em>supporting technologies</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a> C. Castelli, <em>L’irruzione dell’intelligenza artificiale nella giustizia è inevitabile, dobbiamo conoscerla, utilizzarla e governarla per non subirla</em>, cit.</p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a> Avverte G. Zaccaria, in <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, cit., n. 279-280) “<em>Calcolabilità è qualcosa di diverso da prevedibilità. Che la prevedibilità sia un aspetto strutturale del diritto è fuori di dubbio: poter riporre aspettative sui comportamenti altrui, poter fare affidamento su future decisioni giudiziali costituiscono elementi essenziali del fenomeno giuridico, della sua natura di impresa cooperativa che tutela e stabilizza pratiche sociali di interazione dotate di regolarità. La prevedibilità è al cuore della coordinazione tra azioni individuali e istituzioni sociali e si connette inscindibilmente alla certezza, di cui rappresenta anzi il necessario presupposto. Mentre la certezza si riferisce ad un aspetto enunciativo, la prevedibilità si protende in una dimensione applicativa, quella dei risultati preannunziabili. Connettendosi al rispetto delle regole da parte dell’organo decidente (regole sulle fonti, sull’interpretazione, sulla procedura, sull’argomentazione), la prevedibilità consente anche di valutare le decisioni come corrette o come scorrette…la prevedibilità delle decisioni si traduce nella loro controllabilità&#8230;Ma la calcolabilità esprime qualcosa di più della prevedibilità, essendo la possibilità di calcolare più precisa e determinata di quella di prevedere. Il calcolo introduce infatti una dimensione matematizzante ed un approccio geometrico, un’idea del diritto come macchina che di per sé mal si attagliano alla specificità del fenomeno giuridico, e ancor più alle sue caratteristiche contemporanee di pluralismo, complessità, porosità. La logica del probabile, da cui è contraddistinto il sapere pratico, e dunque anche il giudizio giuridico, non è identificabile con una dimensione statistico-matematica, ma piuttosto con le plurime possibilità con cui un modello cogente di carattere generale può essere applicato alle specificità del caso concreto”… “In ogni caso, se si parla di calcolabilità del diritto con riguardo al diritto giurisprudenziale non si può che farlo in modo articolato. Se si considera infatti il tema dal punto di vista del rapporto tra legislazione e giurisdizione è legittimo sostenere che il diritto giurisprudenziale può rendere meglio calcolabile, ossia più chiara e certa, l’insuperabile vaghezza del testo legislativo; se invece lo si considera unicamente dall’ottica dello stesso diritto giurisprudenziale, esso non può che registrare oscillazioni e differenze e talora moltiplicazione dei contrasti che rendono quest’ultimo “poco” calcolabile”.</em> <em>“Ciò che deve in ogni caso rimanere non è la calcolabilità come fatto, ma la calcolabilità, meglio ancora la prevedibilità, come valore, come valore anzi specifico e connaturato al diritto, da continuare a promuovere e difendere. La prevedibilità del diritto contiene in sé una promessa di giustizia”. </em>P. Grossi, <em>Sulla odierna ‘incertezza’ del diritto</em>, in Giust. civ., 2014, n. 921-955; Id., <em>Ritorno al diritto</em>, Roma-Bari 2015, n. 51 ss. G. Alpa, <em>La certezza del diritto nell’età dell’incertezza</em>, Napoli 2006, n. 74 ss. <em>L’“incertezza “del diritto, ne costituisce allora un limite invalicabile: si tratta solo di limitarne il più possibile il grado, evitando che essa comprometta l’intero sistema giuridico. Per dirla con uno slogan, il diritto è chiamato a ridurre l’incertezza più che a garantire la certezza. </em></p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a> <em>Calcolabilità giuridica</em>, a cura di A. Carleo, Bologna 2017; <em>Il vincolo giudiziale del passato. I precedenti</em>, a cura di A. Carleo, Bologna 2018; <em>Decisione robotica</em>, a cura di A. Carleo, Bologna 2019; N. Irti, <em>Per un dialogo sulla calcolabilità giuridica</em>, in Calcolabilità giuridica, cit., p. 21-22.</p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a> M. Biasi, <em>op. cit</em>., n. 738.</p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a> “<em>La prevedibilità delle decisioni costituisce un valore da preservare; l’operatore economico vedrebbe aggiungersi al rischio di impresa insito nella natura dell’attività esercitata un’alea ulteriore alla quale non è culturalmente preparato e che la propria capacità organizzativa non può affrontare: ossia fronteggiare decisioni giudiziali del tutto imponderabili e incontrollabili perché slegate da criteri interpretativi certi, necessari al corretto funzionamento dell’economia di mercato e dei meccanismi di creazione e redistribuzione della ricchezza ad essa correlati</em>”, cfr. G. Ariolli, <em>Nomofilachia, giustizia predittiva e intelligenza artificiale, un Diritto e Innovazione</em>, 3.11.2023, cit.; “<em>La certezza del diritto e la prevedibilità delle decisioni sono, infatti, una componente fondamentale del corretto funzionamento dell’economia di mercato e delle leggi ad essa connesse, dei rapporti tra le imprese e tra i cittadini o tra questi e lo Stato</em>” M. Luciani, <em>La decisione giudiziaria robotica</em>, in <em>Associazione Italiana Costituzionalisti (Rivista)</em>, 3/2018, n. 872 ss.</p>
<p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a> G. Taruffo, <em>Precedente e giurisprudenza</em>, Napoli 2007; E. Calzolaio, <em>Mutamento giurisprudenziale e overruling</em>, in R. trim. d. proc. civ., 2013, 3, n. 899-917; F. Follieri, <em>Correttezza (Richtigkeit) e legittimazione del diritto giurisprudenziale al tempo della vincolatività del precedente</em>, in <em>D. Amm</em>., 2014, 1-2, p. 265-354; N. Irti, <em>Sulla relazione logica di conformità (precedente e susseguente)</em>, in <em>Il vincolo giudiziale del passato</em>, cit., n. 17, 23; A. Gambaro, <em>Note in tema di uso forense dei precedenti giudiziari</em>, in A. Carleo, a cura di, <em>Il vincolo giudiziale del passato</em>, cit., n. 182.</p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a>“ <em>Il precedente non fossilizza il diritto, ma lo rinnova</em>.”… “<em>La distinzione tradizionale tra precedente vincolante (negli ordinamenti di common law) e precedente meramente persuasivo (negli ordinamenti di civil law) si mostra ormai come largamente inattendibile e incapace di descrivere l’efficacia del precedente negli ordinamenti contemporanei. L’intensità con cui il precedente è in grado di influire sulle decisioni successive, la sua forza, può certo essere differenziata, formale ed esplicita in alcuni casi, informale in altri, ma deve comunque fare i conti con la struttura dell’argomentazione giuridica con riferimento all’interpretazione della regola giuridica e alla sua giustificazione. La persuasività e la ragionevolezza della regola di attenersi al precedente ma anche la sua vincolatività ammettono comunque eccezioni che le limitano. Anche quando sia vincolante, l’obbligo di stare decisis non è mai assoluto o insuperabile: e ciò contribuisce a spiegare il motivo per cui la parola “precedente” non ha un referente preciso</em>”, così G. Zaccaria, <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, cit., n. 287.</p>
<p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> G. Ariolli, <em>Nomofilachia, giustizia predittiva e intelligenza artificiale</em>, in <em>Diritto e Innovazione</em>, 3.11.2023.</p>
<p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> Come chiaramente evidenziato in Dottrina (M. Biasi, op. cit. n. 737), è centrale per le strategie di investimento degli operatori economici il binomio certezza (delle regole) – prevedibilità (della decisione) ed ivi, in nota 3, il richiamo al <em>passo di </em>M. Weber<em>, Economia e società </em>(1922), trad. it., Torino, 1999, 472:<em> “ciò che occorre al capitalismo è un diritto che possa venir calcolato al pari di una macchina</em>”</p>
<p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> In particolare la Carta etica prevede la formulazione di cinque principi: 1) il rispetto dei diritti fondamentali; 2) principio di non discriminazione; 3) principio di qualità e sicurezza; 4) principio di trasparenza, imparzialità e correttezza; 5) principio di garanzia dell’intervento e del controllo umano.</p>
<p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> N. Irti “<em>Un diritto incalcolabile”</em>, in <em>Riv. dir. civ</em>., 2016, n. 11 ss</p>
<p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> “<em>La tentazione del robot che ragiona e decide, l’esaltazione dell’infallibilità della macchina a fronte della fallibilità dell’uomo, l’idea della costruzione di un mondo nuovo basata sulla delega alle macchine, ritornano a serpeggiare nel mondo contemporaneo, nel quale si diffonde la credenza collettiva per cui la delega alle macchine avrebbe un carattere di necessità. L’ordine dato dall’uomo sarebbe sostituito dall’ordine delle macchine. È interessante notare come quest’illusione si sviluppi anche nell’ambito giuridico nonostante l’indubitabile sconfitta teorica, almeno in sede di teoria generale del diritto, dell’idea di un giudice spersonalizzato, mero applicatore di norme precostituite e rigidamente definite. E nonostante il fatto che le pur notevoli performances del digitale non sempre autorizzino questa straordinaria attrazione nei suoi confronti</em>”… G. Zaccaria, <em>Figure del giudicare: calcolabilità, precedenti, decisione robotica</em>, cit., n. 289.</p>
<p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> R. Messinetti, <em>Brevi note sulla certezza del diritto nella società algoritmica</em>, in <em>Contratto e Impresa</em>, 2/2024, n. 283 ss. Restituisce in modo sorprendente questo legame un vecchio, quasi sconosciuto un racconto di fantascienza giudiziaria (in nota 4 Charpentier, <em>Justice 65</em>, Paris, 1954, trad. it., <em>Justice Machines</em>. Racconto di fantascienza giudiziaria, Macerata, 2015)”, in cui  “…<em>protagonista è un avvocato che, svegliatosi da un sonno decennale, non riconosce il mondo. A Parigi la facoltà di legge è chiusa; i giudici sono scomparsi, sostituiti da Justice Machines: artefatti cibernetici che estraggono le sentenze a sorte<strong>.</strong> Anche gli avvocati sono trasformati: meri traduttori delle domande delle parti nel linguaggio delle macchine. In poche parole: i francesi avevano preso sul serio la vecchia burla di cui Rabelais si era servito per canzonare i giudici del suo tempo. All’incertezza del diritto generata dai giudici umani avevano preferito quella di un’alea assoluta e per questo imparziale ed equanime. Ed erano contenti della lotteria della giustizia. Ma solo per poco perché, alla fine, nessuno chiedeva più quella giustizia.</em></p>
<p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> <em> S.</em> Napolitano, <em>Un algoritmo per </em>pre-dicere,<em> ma non dall’“antro della Sibilla” cit. n.7 e ss.</em></p>
<p style="text-align: justify;"><a href="#_ftnref20" name="_ftn20">[20]</a> Allo stato non è ipotizzabile un impiego di algoritmi nel contesto decisionale del giudice in Italia: lo impedisce l’articolo 8 del Decreto Legislativo 51 del 2018, di recepimento della Direttiva UE 16/680; cfr. E. Nagni, <em>Artificial intelligence, l’innovativo rapporto di (in)compatibilità fra machina sapiens e processo penale</em>, in Sistema Penale 7/2021, n. 16</p>
<p style="text-align: justify;"><a href="#_ftnref21" name="_ftn21">[21]</a> M. Biasi, <em>Problema e sistema nella regolazione lavoristica dell’intelligenza artificiale: note preliminari</em>, in <em>federalismi</em>, n.30/2024, n. 168.</p>
<p style="text-align: justify;"><a href="#_ftnref22" name="_ftn22">[22]</a> Va tenuta distinta, in altri termini, come avverte M. Biasi, op. cit.,  <em>la “giustizia predittiva in senso lato”, che mira all’individuazione, attraverso strumenti di data research analysis, dei precedenti giudiziari in grado di (o, forse meglio, utili a) pre-dicere l’esito di una controversia non ancora avviata o comunque non decisa , dalla “giustizia predittiva in senso stretto”, che, collocandosi all’interno del procedimento decisionale, ha a che vedere in realtà più con lo jus dicere che con il jus pre-dicere</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref23" name="_ftn23">[23]</a> Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale), pubblicato sulla GUUE del 12 luglio 2024.</p>
<p style="text-align: justify;">Il 13 marzo 2024 il Parlamento europeo ha approvato il regolamento sull’intelligenza artificiale (AI ACT), frutto dell&#8217;accordo raggiunto con gli Stati membri nel dicembre 2023. Il regolamento stabilisce obblighi per l&#8217;IA sulla base dei possibili rischi e del livello d&#8217;impatto. Ciò in quanto, il provvedimento è impostato su un&#8217;architettura di rischi connessi all’uso della IA, suddivisi in quattro categorie: inaccettabili, alti, limitati e minimi. Maggiore è il rischio, maggiori le responsabilità e i divieti per chi sviluppa o adopera sistemi di intelligenza artificiale. Per un commento alla versione dell’AI Act approvata dal Parlamento europeo nella seduta del 13 marzo 2024 e ratificata dal Consiglio il 21 maggio 2024, M. Peruzzi, <em>Intelligenza artificiale e lavoro: l’impatto dell’AI Act nella ricostruzione del sistema regolativo Ue di tutela</em>, in M. Biasi (a cura di), <em>Diritto del lavoro e intelligenza artificiale</em>, Giuffrè, 2024, n. 115 ss.; in generale, sul rapporto tra lavoro e IA, si veda, senza ambizione di completezza, S. Scagliarini, I. Senatori (a cura di), <em>Lavoro, Impresa, e Nuove Tecnologie dopo l’AI Act</em>, Fondazione Marco Biagi, 2024; M. Biasi (a cura di), <em>op. cit</em>.; M. Peruzzi, <em>Intelligenza artificiale e lavoro. Uno studio su poteri datoriali e tecniche di tutela</em>, Giappichelli, 2023.</p>
<p style="text-align: justify;"><a href="#_ftnref24" name="_ftn24">[24]</a>  Il messaggio chiave dell’AI Act è che la tecnologia debba fungere da mezzo a servizio dell’uomo (e non il contrario), donde il reiterato richiamo, all’interno del testo, all’idea di un’IA antropocentrica (cfr. M. Biasi, <em>Il lavoro nel disegno di legge governativo in materia di intelligenza artificiale: principi, regole, parole, silenzi</em>, in Diritto delle Relazioni Industriali Giuffrè, 2024, n. 3, n. 646).</p>
<p style="text-align: justify;"><a href="#_ftnref25" name="_ftn25">[25]</a> M. Biasi, <em>Il lavoro nel disegno di legge governativo in materia di intelligenza artificiale</em>, cit., n .659.</p>
<p style="text-align: justify;"><a href="#_ftnref26" name="_ftn26">[26]</a> D.d.l. S 1146, recante Disposizioni e delega al Governo in materia di intelligenza artificiale, presentato dal Presidente del Consiglio dei Ministri e dal Ministro della giustizia e comunicato alla Presidenza il 20 maggio 2024, il testo è stato approvato con modificazioni  alla Camera, C.2316, in data 25 giugno 2025, approvato in via definitiva al Senato, S.1146-B, in data 17 novembre 2025, oggi è Legge della Stato n.132 del 23 settembre 2025 “Disposizioni e deleghe al Governo in materia di intelligenza artificiale (25G00143) entrata in vigore il 10.10.2025, pubblicata nella GU n.223 del 25.09.2025</p>
<p style="text-align: justify;"><a href="#_ftnref27" name="_ftn27">[27]</a> In particolare l’art.16 rubricato “Delega al Governo in materia di dati, algoritmi e metodi matematici per <em>l&#8217;addestramento di sistemi di intelligenza artificiale” </em>prevede che “1. <em>Il Governo è delegato ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, uno o più decreti legislativi per definire una disciplina organica relativa all&#8217;utilizzo di dati, algoritmi e metodi matematici per l&#8217;addestramento di sistemi di intelligenza artificiale <strong>senza obblighi ulteriori, negli ambiti soggetti al regolamento (UE) 2024/1689, rispetto a quanto già ivi stabilito</strong>.</em> <em>2. Gli schemi dei decreti legislativi di cui al comma 1 sono adottati su proposta del Presidente del Consiglio dei ministri e del Ministro della giustizia e sono successivamente trasmessi alle Camere per l&#8217;espressione del parere delle Commissioni parlamentari competenti. Decorsi sessanta giorni dalla data della trasmissione, i decreti possono essere emanati anche in mancanza dei pareri. Qualora detto termine venga a scadere nei trenta giorni antecedenti alla scadenza del termine previsto per l&#8217;esercizio della delega o successivamente, quest&#8217;ultimo è prorogato di sessanta giorni.</em> <em>3. Nell&#8217;esercizio della delega di cui al comma 1, il Governo si attiene ai seguenti princìpi e criteri direttivi:</em> <em>a) individuare ipotesi per le quali appare necessario dettare il regime giuridico dell&#8217;utilizzo di dati, algoritmi e metodi matematici per l&#8217;addestramento di sistemi di intelligenza artificiale, nonché i diritti e gli obblighi gravanti sulla parte che intenda procedere al suddetto utilizzo;</em> <em>b) prevedere strumenti di tutela, di carattere risarcitorio o inibitorio, e individuare un apparato sanzionatorio per il caso di violazione delle disposizioni introdotte ai sensi della lettera a);</em> <em>c) </em><em>attribuire alle sezioni specializzate in materia di impresa le controversie relative alla disciplina introdotta ai sensi delle lettere a) e b).</em> A tal  riguardo la Settima Commissione del CSM nella delibera n.118/VV/2024, cit. n. 544, ha auspicato che<em> “mentre sono in corso le sperimentazioni dell’IA applicata alla giurisdizione in tutti i maggiori ordinamenti giuridici europei &#8211; il Ministero della Giustizia italiano eserciti le prerogative previste dall’art.110 della Costituzione Il ruolo attribuito per legge al Ministero per tutti i sistemi di IA, anche relativo ad attività amministrative ed accessorie, prevede che il Ministero autorizzi e monitori a livello sperimentale le applicazioni studiate e in uso (vedi i progetti PON Governance, il sistema di certificazione dell’impiego di IA, ecc.) che assicurino in modo rigoroso due requisiti ovvero la sicurezza della rete giustizia e la tutela dei dati sensibili e della privacy. Da questo punto di vista sarebbe utile che il Ministero &#8211; dopo aver messo a disposizione degli uffici giudiziari i risultati delle sperimentazioni in corso con la rete dei RID e dei MAGRIF sotto la supervisione della STO (diretta articolazione consiliare) &#8211; valuti la possibilità di commissionare la realizzazione di un sistema di IA interno al sistema giustizia auspicabilmente pronto prima di agosto 2026 per essere fruito da tutti i magistrati ordinari.”</em></p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/allucinazioni-da-ia-e-controllo-umano-negli-atti-difensivi-nota-a-tar-lombardia-sez-v-21-ottobre-2025-n-3348/">Allucinazioni da IA e controllo umano negli atti difensivi. Nota a Tar Lombardia, Sez. V, 21 ottobre 2025, n. 3348</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</title>
		<link>https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Mon, 16 Jun 2025 14:02:36 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=89800</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/">La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</a></p>
<p>Giada Maria De Stephanis La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente. Nota a Consiglio di Stato, Sez. IV, sentenza 4 giugno 2025, n. 4857. ABSTRACT: La sentenza del Consiglio di Stato, Sez. IV del 4 giugno 2025 n. 4857 si inserisce nel dibattito sempre più attuale e</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/">La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/">La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</a></p>
<p style="text-align: justify;"><strong>Giada Maria De Stephanis</strong></p>
<p>La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</p>
<p>Nota a Consiglio di Stato, Sez. IV, sentenza 4 giugno 2025, n. 4857.</p>
<p style="text-align: justify;">ABSTRACT: La sentenza del Consiglio di Stato, Sez. IV del 4 giugno 2025 n. 4857 si inserisce nel dibattito sempre più attuale e complesso relativo all’utilizzo degli algoritmi nei procedimenti amministrativi. Essa assume rilievo sistematico per avere delineato con chiarezza e rigore argomentativo i criteri distintivi tra l’uso di strumenti informatici a supporto dell’attività amministrativa e le decisioni amministrative automatizzate <em>tout court</em>, affrontando nondimeno la questione della conoscibilità del <em>software</em> utilizzato con la richiesta al codice sorgente. Sebbene l’evoluzione normativa e giurisprudenziale stia prontamente rispondendo ad alcuni dei problemi applicativi posti delle nuove tecnologie, permangono criticità rispetto all’effettiva portata degli strumenti utilizzati e i loro riflessi sul procedimento amministrativo.</p>
<p style="text-align: justify;"><strong>Sommario: 1. Il caso di specie. – 2. Distinzione tra supporto e automatizzazione decisionale.  – 3. Accesso difensivo al codice sorgente. – 4. Alcune considerazioni a margine in materia di procedimento amministrativo algoritmo e trasparenza delle decisioni.</strong></p>
<p><strong>1. Il caso di specie </strong></p>
<p style="text-align: justify;">La controversia trae origine da una procedura aperta in modalità telematica per l’affidamento dell’appalto del servizio di lavorazione rifiuti presso le piattaforme di valorizzazione indetta dalla Srt s.p.a. Esclusa dalla procedura di gara per <em>«</em><em>mancato rispetto delle Regole per la presentazione dell’offerta ovvero mancata corrispondenza dell’impronta digitale dei documenti di offerta trasmessi con quella assegnata dal sistema in fase di conferma di partecipazione»</em>, la Teknoservice s.r.l. ha richiesto l’accesso agli atti, tra cui la copia del codice sorgente della piattaforma di e-procurement Acquisti Telematici adoperata per la conduzione delle operazioni di gara, programma certificato da Agid, Anac e Acn. Avverso il provvedimento di diniego – unitamente al provvedimento di esclusione e gli atti di gara – la Teknoservice s.r.l. ha proposto dinanzi al T.a.r. Piemonte istanza ai sensi dell’art. 116, 2° comma, c.p.a., chiedendo di «<em>accertare e dichiarare il diritto d’accesso della ricorrente agli atti e documenti domandati in ostensione, condannando le parti intimate a concedere copia di quanto richiesto in sede di accesso»</em>. Il T.a.r. ha respinto l’istanza e la Teknoservice s.r.l. ha, dunque, proposto appello, deducendo la violazione e falsa applicazione dell’art. 97 cost., degli artt. 22 s.s. della l.n. 241/1990 e dell’art. 30 del d.lgs. n. 36/2023. Il Consiglio di Stato ha respinto l’appello, precisando che, con riferimento agli algoritmi aventi funzione meramente strumentale, il diritto di accesso prevale sul diritto alla riservatezza aziendale «<em>solo quando sia indispensabile e strettamente strumentale alla difesa in giudizio del richiedente, nell&#8217;ambito della procedura di affidamento del contratto.In altri termini, con l&#8217;</em><a href="https://onelegale.wolterskluwer.it/normativa/10LX0000941816ART62?pathId=aed6b81f5eb368"><em>art. 35</em></a><em>, commi 4 e 5, </em><a href="https://onelegale.wolterskluwer.it/normativa/10LX0000941816SOMM?pathId=aed6b81f5eb368"><em>D.Lgs. n. 36 del 2023</em></a><em>, il legislatore ha previsto, a tutela dei diritti di privativa intellettuale relativi alle piattaforme digitali utilizzate nelle procedure di gara (qual è quella, nel caso di specie, utilizzata da D.), un divieto di accesso e di ogni forma di divulgazione della stessa, incluso, quindi il suo codice sorgente; tale divieto può essere superato, nel bilanciamento dei contrapposti interessi, solamente se il concorrente che chiede l&#8217;accesso ne dimostri l&#8217;indispensabilità ai fini della difesa in giudizio». </em></p>
<p style="text-align: justify;">La sentenza del Consiglio di Stato in commento offre una preziosa occasione per riflettere su una distinzione centrale e ormai ineludibile nella disciplina dell’azione amministrativa digitalizzata: quella tra decisione algoritmica e algoritmo di mero supporto. Tale discrimine, lungi dall’essere meramente concettuale, ha conseguenze giuridiche rilevanti, soprattutto avuto riguardo all’applicabilità delle garanzie difensive, tra cui spicca, per importanza, il diritto di accesso agli atti, il quale si estende anche al codice sorgente del <em>softwar</em>e utilizzato. È bene procedere con ordine.</p>
<p><strong>2. Distinzione tra supporto e automatizzazione decisionale </strong></p>
<p style="text-align: justify;">L’utilizzo di strumenti tecnologici, ivi inclusi quelli basati sull’Intelligenza Artificiale, per la semplificazione del procedimento amministrativo non integra di per sé una decisione algoritmica. Questa la conclusione cui giunge il Consiglio di Stato, distinguendo limpidamente le c.d decisioni algoritmiche dagli algoritmi di mero supporto all’attività amministrativa, ritenendo che solo ai primi si applichi l’art. 30, 2° comma, lett. a) del D. Lgs. n. 36/2023, ai sensi e per gli effetti del quale «<em>nell’acquisto o nello sviluppo delle soluzioni di cui al comma 1° le stazioni appaltanti e gli enti concedenti: a) assicurano la disponibilità del codice sorgente, della relativa documentazione, nonché di ogni altro elemento utile a comprenderne le logiche di funzionamento</em>».</p>
<p style="text-align: justify;">In particolare, il sopracitato art. 30, 2° comma, lett. a) del Codice dei Contratti Pubblici mostra un deciso <em>favor</em> per gli algoritmi <em>open source</em> rispetto a quelli proprietari e, in ogni caso, assicura «<em>la disponibilità del codice sorgente, prevedendo inoltre che, nei casi di decisione algoritmica, la motivazione del provvedimento finale deve richiamare il codice sorgente e il modello matematico impiegati, salva la possibilità per l’interessato di esercitare il diritto di accesso documentale a “documenti” ed anche al data set</em>»<em>.</em></p>
<p style="text-align: justify;">Tanto premesso, secondo il Consiglio di Stato deve escludersi l’applicabilità, nel caso di specie, dell’art. 30, 2° comma, lett. a) del Codice dei Contratti Pubblici, disposizione che, rammenta, recepisce i principi elaborati dalla giurisprudenza in materia di decisioni algoritmiche – segnatamente, i principi di trasparenza, non esclusività della decisione algoritmica e non discriminazione – e che, invece, trova piena applicazione nell’ipotesi di provvedimenti amministrativi adottati mediante utilizzo di sistemi decisionali automatizzati in assenza di un intervento umano significativo (<em>cfr.</em> Cons. Stato, Sez. VI 8 aprile 2019, n. 2270).</p>
<p style="text-align: justify;">Il Collegio ritiene che, nel caso di specie, non si configuri una decisione amministrativa algoritmica in senso proprio, bensì l’impiego di uno strumento algoritmico con funzione meramente strumentale e ausiliaria rispetto al processo decisionale, il quale rimane pertanto integralmente riservato al fattore umano. Si è, in altri termini, in presenza di un sistema informatico di supporto all’attività istruttoria, che non sostituisce, né tantomeno condiziona in modo vincolante, il contenuto dell’atto amministrativo finale, iscrivendosi piuttosto nel solco delle classiche modalità operative dell’azione amministrativa.</p>
<p style="text-align: justify;">A conferma di ciò, il Collegio osserva che il <em>software</em> in questione si limita a effettuare una comparazione tecnica tra parametri informatici, consistenti nelle impronte digitali dei documenti trasmessi, determinati: in una prima fase, mediante la registrazione da parte della piattaforma delle impronte digitali generate al momento della conferma di partecipazione da parte degli operatori economici; in una seconda fase, tramite il confronto tra tali impronte e quelle corrispondenti a <em>file </em>effettivamente caricati in sede di presentazione delle offerte tecniche ed economiche. Il sistema informatico, dunque, restituisce un esito binario, consistente nella rilevzione di conformità o difformità tra le impronte digitali, fornendo tale risultato alla Stazione appaltante e, in particolare, alla Commissione giudicatrice, che resta pienamente titolare del potere decisionale. Sulla base di tali considerazioni, è stata confutata la tesi dell’appellante secondo cui nel caso in esame il <em>software</em> avrebbe compiuto decisioni automatizzate in luogo della commissione di gara, provvedendo all’automatica esclusione dell’operatore economico.</p>
<p style="text-align: justify;">Ebbene, la natura meramente ausiliaria dell’algoritmo in esame ha consentito di differenziare nettamente la presente fattispecie da quelle richiamate dalla parte appellante, ove, ad esempio, la giurisprudenza ha riconosciuto il diritto di accesso al codice sorgente di <em>software</em> decisionali che determinavano in modo automatico l’assegnazione di sedi nel contesto della mobilità del personale docente, in assenza di motivazione, con compressione delle preferenze espresse e in difetto dei più elementari requisiti di trasparenza <em>(cfr.</em> Cons. Stato, Sez. VI 2 gennaio 2020, n. 30). In tali casi, si è correttamente ritenuto che l’impiego di strumenti automatizzati non possa costituire un pretesto per eludere i principi fondamentali che regolano l’azione amministrativa in uno Stato di diritto.</p>
<p style="text-align: justify;">Tirando le somme, secondo l’insegnamento del Consiglio di Stato, deve ritenersi che si è in presenza di una decisione algoritmica automatizzata ogni qualvolta l’algoritmo assuma un ruolo sostitutivo rispetto all’ordinaria sequenza procedimentale, finendo per assumere la natura di elemento funzionalmente determinante il contenuto dell’atto amministrativo. Detto in altri termini, è corretto parlare di decisioni algoritmiche quando il sistema informatico sostituisce integralmente l’attività valutativa della P.A, costituenedo di fatto l’unica fonte del contenuto dell’atto. Ritiene il Collegio che si ha invece un algoritmo di mero supporto quando esso fornisce un ausilio tecnico che lascia impregiudicata la valutazione finale dell’organo competente. Nel primo caso, l’intervento umano è assente o puramente formale, rendendo necessario un elevato livello di trasparenza dell’intero processo automatizzato, con conseguente applicazione delle specifiche garanzie previste dall’art. 30, 2° comma, lett. a), D. Lgs. n. 36/2023; mentre nel secondo caso, invece, permane un controllo umano significativo, incidendo sulla disciplina applicabile.</p>
<p><strong>3. Accesso difensivo al codice sorgente </strong></p>
<p style="text-align: justify;">Il codice sorgente rappresenta, in breve, <em>«la versione di un algoritmo scritta in un linguaggio di programmazione ad alto livello (ossia più vicino al linguaggio umano, tipicamente in pseudo inglese), le cui istruzioni sono poi eseguite dalla macchina mediante appositi programmi» </em>(Treccani, Enciclopedia della Scienza e della Tecnica, 2008). In via esemplificativa, esso è funzionale all’esecuzione di operazioni stabilite attraverso il linguaggio di programmazione selezionato, utilizzando un insieme definito e limitato di istruzioni.</p>
<p style="text-align: justify;">La giurisprudenza amministrativa si è dimostrata tendenzialmente favorevole al riconoscimento del diritto di accesso ai codici sorgente impiegati nei procedimenti amministrativi automatizzati.</p>
<p style="text-align: justify;">In tal senso, è pacificamente riconosciuta la natura giuridica del codice sorgente quale documento amministrativo <em>ex</em> art. 22, 1° comma, lett. d), della Legge n. 241 del 1990 (<em>cfr.</em> T.a.r. Lazio, Sez III <em>bis</em>, sentt. nn. 3769/2016; n. 374/2017; 7769/2021), il quale definisce come tale ogni rappresentazione grafica, fotocinematografica, elettromagnetica o di qualunque altra specie del contenuto di atti, anche interni o non relativi ad uno specifico procedimento, detenuti da una P.A. e concernenti attività di pubblico interesse, indipendentemente dalla natura pubblicistica o privatistica della loro disciplina sostanziale. Ebbene, in materia di accesso agli atti della P.A. la qualificazione del codice sorgente quale opera dell&#8217;ingegno non costituisce di per sé motivo ostativo alla sua ostensibilità. Tuttavia, l’accesso è subordinato alla verifica della stretta indispensabilità delle informazioni richieste rispetto alla posizione giuridica da tutelare.</p>
<p style="text-align: justify;">È opportuno ricordare che il legislatore ha inteso circoscrivere l’oggetto della situazione legittimante l’accesso difensivo rispetto all’accesso “ordinario”, esigendo che la stessa, oltre a corrispondere al contenuto dell’astratto paradigma legale, sia anche collegata al documento al quale è chiesto l’accesso (art. 24, 7° comma, della Legge n. 241 del 1990). A tal riguardo, il Collegio richiama quanto stabilito dall&#8217;Adunanza Plenaria 18 marzo 2021, n. 4, e in particolare «<em>la necessità (o la stretta indispensabilità) della conoscenza del documento determina il nesso di strumentalità tra il diritto all&#8217;accesso e la situazione giuridica &#8216;finale’, nel senso che l&#8217;ostensione del documento amministrativo deve essere valutata, sulla base di un giudizio prognostico ex ante, come il tramite &#8211; in questo senso strumentale &#8211; per acquisire gli elementi di prova in ordine ai fatti (principali e secondari) integranti la fattispecie costitutiva della situazione giuridica &#8216;finale’ controversa e delle correlative pretese astrattamente azionabili in giudizio</em>»<em>. </em>Come meglio chiarito, questa esigenza è soddisfatta dal successivo art. 25, 2° comma, della Legge n. 241 del 1990, ai sensi del quale la richiesta di accesso ai documenti deve essere motivata. In questa prospettiva, il Supremo Consesso ha escluso che possa ritenersi sufficiente un generico riferimento a non meglio precisate esigenze probatorie o difensive, poiché l’ostensione del documento passa attraverso un rigorso vaglio circa il nesso di strumentalità necessaria fra la documentazione richiesta e la situazione finale controversa.</p>
<p style="text-align: justify;">Da quanto detto, emerge come la valutazione di stretta indispensabilità costituisca il criterio che regola il rapporto tra accesso difensivo e tutela della segretezza industriale e commerciale già sul piano della normativa generale.</p>
<p style="text-align: justify;">Ma vi è di più; il Giudice ricorda infatti che in materia di accesso difensivo, è il legislatore stesso a prevedere un’esclusione basata su un giudizio valutativo di tipo comparativo di composizione degli interessi confliggenti facenti capo al richiedente e, rispettivamente, al controinteressato, modulato in ragione del loro grado di intensità. In particolare, l’art. 24 della Legge 7 agosto n. 241 del 1990 declina il rapporto tra accesso difensivo e riservatezza entro due regole di valutazione: con riferimento ai dati sensibili e giudiziari, l’accesso è consentito nei limiti in cui sia strettamente indispensabile; in caso di dati idonei a rilevare lo stato di salute e la vita sessuale, se la situazione giuridicamente rilevante che si intende tutelare con la richiesta di accesso sia di rango almeno pari ai diritti dell’interessato, ovvero consista in un diritto della personalità o in un altro diritto o libertà fondamentale</p>
<p style="text-align: justify;">Ebbene, per quanto riguarda i <em>software</em> impiegati dalle stazioni appaltanti e dagli enti concedenti, l’art. 35, 4° e 5° comma, del D. Lgs. n. 36/2023 ne ammette l’accesso, sebbene coperti da diritti di privativa intellettuale, purché esso sia indispensabile ai fini della difesa in giudizio. In altri termini, il legislatore, nel bilanciamento di contrapposti interessi – in caso di conflitti – sembra ritenere che la conoscenza del codice sorgente, ancorché coperto da brevetto, sia essenziale per garantire la tracciabilità e verificabilità degli algoritmi impiegati nelle procedure automatizzate, in linea con il minimo dovere esplicativo richiesto dalle raccomandazioni europee in materia di Intelligenza Artificiale.</p>
<p style="text-align: justify;">In termini generali, la nozione di &#8220;indispensabilità&#8221;, cui il codice appalti subordina l&#8217;accesso in presenza di informazioni riservate, deve essere interpretata nel senso di insussistenza di altri mezzi di prova idonei a dimostrare i fatti oggetto di contesa tra le parti, sicché la mera volontà di verificare e sondare – come è nel caso di specie – integra un accesso &#8220;meramente esplorativo&#8221;, privo della dimostrazione di una specifica e concreta necessità delle informazioni ai fini dell’esercizio del diritto di difesa, indispensabile per giustificare il sacrificio dei diritti di privativa industriale e intellettuale.</p>
<p style="text-align: justify;">In estrema sintesi, la sentenza del Consiglio di Stato ribadisce che l’utilizzo di strumenti informatici non implica automaticamente l’adozione di decisioni algoritmiche in senso stretto, e che solo in quest’ultimo caso si applicano le rigorose prescrizioni di trasparenza previste dall’art. 30 del Codice dei Contratti Pubblici. Al contrario, in presenza di un supporto tecnico non vincolante, l’intervento umano resta determinante e la disciplina dell’accesso si fonda sulla prova della stretta indispensabilità, secondo quanto stabilito dall’art. 35.</p>
<p><strong>4. Alcune considerazioni a margine in materia di procedimento amministrativo algoritmico e trasparenza delle decisioni</strong></p>
<p style="text-align: justify;">Come ormai noto, l’uso delle nuove tecnologie nell’organizzazione e nell’azione amministrativa costituisce un fondamentale principio del nuovo diritto amministrativo, conformemente ai principi di efficienza ed economicità, e, in tale direzione, deve essere letto l’art. 3 <em>bis</em> della Legge n. 241 del 1990, inserito a seguito della novella del 2005.</p>
<p style="text-align: justify;">Nondimeno, l’introduzione massiccia di strumenti digitali nei procedimenti amministrativi ha sollevato – <em>rectius</em>, continua a sollevare – plurimi interrogativi di rilievo sistemico, in particolare quando i sistemi informatici non si limitano a mere infrastrutture tecniche, ma si innestano nel circuito valutativo e discrezionale dell’amministrazione. In tale contesto, la distinzione tra automatizzazione e mero supporto all’attività assume un significato dirimente, elevandosi a parametro essenziale per delimitare il campo di applicazione delle garanzie difensive previste dall’ordinamento a tutela dei cittadini nei procedimenti amministrativi che li riguardano.</p>
<p style="text-align: justify;">Nel caso in esame, il Consiglio di Stato ha ribadito che, in assenza di un intervento decisionale dell’algoritmo, non si configura una decisione automatizzata, bensì una procedura informatica con funzione ausiliaria. L’algoritmo in questione infatti si limita a constatare un fatto, lasciando inalterato il potere valutativo dell’amministrazione. Questa impostazione conduce, rispettivamente, a una diversa configurazione del diritto di accesso: mentre nel caso del mero supporto non si applica l’art. 30, 2° comma, lett. a), del D. Lgs. n. 36/2023, nelle decisioni algoritmiche in senso stretto l’accesso al codice sorgente prevale sulle esigenze di riservatezza e proprietà intellettuale, anche laddove siano utilizzati dei <em>software</em> proprietari.</p>
<p style="text-align: justify;">Si è già ampiamente osservato come il legislatore nella più recente evoluzione normativa abbia espresso un chiara preferenza per i c.d. <em>open data</em>, rispetto ai <em>sotware</em> proprietari, nell’ambito di una più ampia politica del libero accesso. Nel c.d. Codice dell’amministrazione digitale (Decreto Legislativo 7 marzo 2005 , n. 82), i dati di tipo aperto sono caratterizzati, anzitutto, dalla disponibilità secondo i termini di una licenza o di una previsione normativa; in secondo luogo, dalla accessibilità attraverso tecnologie dell’informazione e della comunicazione; infine, dalla disponibilità gratuita o a costi marginali sostenuti per la riproduzione e divulgazione<strong>. </strong>Ebbene, la differenza principale tra <em>open data</em> e <em>software</em> proprietari sta nella sostanziale indisponibilità al pubblico dei secondi; mentre gli <em>open data</em> si traducono in accesso e trasparenza dei dati della pubblica amministrazione.</p>
<p style="text-align: justify;">In questa cornice, il principale profilo problematico è proprio quello legato al principio di trasparenza amministrativa, tradizionalmente ancorato alla conoscibilità dell’<em>iter</em> logico e giuridico della decisione, il quale si confronta ora con la necessità di una nuova forma di trasparenza algoritmica, ideona a rendere intelligibile non solo l’esito, ma altresì la struttura, le logiche decisionali e i dati di <em>input</em> del sistema informatico utilizzato.</p>
<p style="text-align: justify;">A tal riguardo, è utile evidenziare che quanto maggiormente l’algoritmo utilizzato risulta opaco, difficilmente comprensibile o inaccessibile, tanto più l’asimmetria informativa tra amministrazione e cittadini si acuisce. Ne deriva che, al di là delle mere enunciazioni di principio, la concreta ed effettiva possibilità per il privato di comprendere e contestare le decisioni amministrative può risultare gravemente compromessa.</p>
<p style="text-align: justify;">Cionondimeno, la mera conoscibilità dell’esistenza di un algoritmo non produce effetto alcuno se non accompaganata dalla effettiva capacità di decifrarne la logica, come è  stato anche largamente rappresentato dal Consiglio di Stato in commento. Per tale ragione, il principio di conoscibilità deve essere integrato necessariamente con quello di comprensibilità, il quale può essere tradotto nient’altro che nel diritto di ricevere informazioni significative sulla logica dell’algoritmo.</p>
<p style="text-align: justify;">Orbene, un diritto del genere presuppone, in ogni caso, che gli algoritmi abbiano una logica deterministica-matematica, con connessioni verificabili tra principi generali e applicazioni basate sul principio di causalità. A ben vedere, molti degli algoritmi di nuova generazione si basano su relazioni statistiche e non causali e producono criteri di inferenza spesso incomprensibili e difficilmente tracciabili, rendendo particolarmente complessa – se non impossibile – la ricostruzione dell’<em>iter </em>seguito dall’algoritmo per raggiungere il risultato finale. In particolare, l’utilizzo di algoritmi basati sul machine learning non supervisionato comporta una sfida significativa, risultando estremamente difficile ricostruire a posteriori i dati su cui tali sistemi hanno operato. Tutto ciò comporta una sostanziale mancanza di trasparenza nelle inferenze generate, con il concreto pericolo che esse non possano essere adeguatamente giustificate o spiegate.</p>
<p style="text-align: justify;">Ci troviamo di fronte a sistemi opachi per definizione, in cui la pretesa di trasparenza rischia di ridursi a mera facciata formale, rischiando l’algoritmo di presentarsi come il nuovo oracolo di Delfi del diritto.</p>
<p style="text-align: justify;">In via conclusiva, la sentenza in commento pone una pietra miliare nel consolidamento del principio per cui l’intervento umano effettivo è ciò che distingue un algoritmo di supporto da uno decisionale, ma lascia aperti non irrilevanti scenari per il futuro. Essa, infatti, rischia di non prendere sufficientemente in considerazione i pericoli insiti nell’adottare decisioni sulla base di algoritmi, sia pure di mero supporto, che si assumono essere imparziali e che potrebbero, invero, presentare malfuzionamenti o non essere del tutto imparziali. Senza alcuna pretesa di esaustività, è probabile che in un futuro prossimo il diritto amministrativo sarà chiamato a riconoscere l’influenza sostanziale dell’algoritmo anche in assenza di un suo ruolo formalmente “decisivo”.</p>
<p style="text-align: justify;">Il rischio, altrimenti, sarà quello di una nuova forma di automatismo mascherato basato solo su una presunta neutralità tecnica, in cui la discrezionalità umana sopravvive come paravento, e i diritti del cittadino – a cominciare dalla possibilità di comprendere e contestare le decisioni dell’autorità – vengono sacrificati sull’altare dell’efficienza tecnologica.</p>
<p style="text-align: justify;"><strong> </strong></p>
<p style="text-align: justify;">
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/la-trasparenza-dellamministrazione-decisioni-algoritmiche-e-accesso-al-codice-sorgente-nota-a-consiglio-di-stato-sez-iv-sentenza-4-giugno-2025-n-4857/">La trasparenza dell’Amministrazione: decisioni algoritmiche e accesso al codice sorgente.</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</title>
		<link>https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Thu, 08 May 2025 15:39:36 +0000</pubDate>
				<guid isPermaLink="false">https://www.giustamm.it/?post_type=cpt_3881&#038;p=89635</guid>

					<description><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/">PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</a></p>
<p>(Commento all’Opinion n. 8 del 2024 dell’European Data Protection Board) di Francesco Midiri   Sommario: 1. L’Opinion n. 8 del 2024 dell’European Data Protection Board; 2. Le regole introdotte dall’Opinion: il presupposto di applicazione della data protection come trattamento di dati non anonimizzati; 3. Le regole imposte dall’utilizzo della base</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/">PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/">PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</a></p>
<p style="text-align: justify;">(Commento all’Opinion n. 8 del 2024 dell’European Data Protection Board)</p>
<p style="text-align: justify;">di <strong>Francesco Midiri</strong></p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Sommario: <em>1. L’Opinion n. 8 del 2024</em> <em>dell’European Data Protection Board; 2. Le regole introdotte dall’Opinion: il presupposto di applicazione della data protection come trattamento di dati non anonimizzati; 3. Le regole imposte dall’utilizzo della base giuridica di trattamento del legittimo interesse; 4. Alcune considerazioni finali.</em></p>
<p style="text-align: justify;"><em> </em></p>
<ol style="text-align: justify;">
<li><em> L’Opinion n. 8 del 2024 dell’European Data Protection Board</em></li>
</ol>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Con l’“<em>Opinion n. 8/2024 on certain data protection aspects related to the processing of personal data in the context of AI models</em>” (adottata il 17 dicembre 2024) l’EDPB ha introdotto una serie di nuove regole di protezione dei dati personali per il funzionamento di “sistemi” che utilizzano modelli di IA<a href="#_ftn1" name="_ftnref1">[1]</a>, regole che, sostanzialmente, si aggiungono al recente regolamento europeo relativo a quest’ultima materia (Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024).<a href="#_ftn2" name="_ftnref2">[2]</a></p>
<p style="text-align: justify;">Il provvedimento è stato adottato sulla base dell’art. 64, par. 2, del GDPR (Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016) &#8211; che consente all’EDPB (se richiesto da un’Autorità di protezione dei dati personali nazionale) di emettere pareri sostanzialmente vincolanti su questioni di applicazione generale o che producono effetti in più di uno Stato membro &#8211; e scaturisce da quattro quesiti dell’Autorità irlandese per la <em>privacy</em>, relativi a questioni di applicazione delle regole della protezione dei dati personali a “modelli” di IA<a href="#_ftn3" name="_ftnref3">[3]</a>. Più precisamente, è stato chiesto all’EDPB se un modello di IA utilizzi realmente dati personali e, quindi, se debba essere sottoposto alla relativa normativa. In caso di risposta affermativa, l’Autorità europea è stata chiamata a considerare se il c. d. “legittimo interesse” possa costituire una base giuridica adeguata (escludendo, così il consenso dell’interessato) e quali caratteristiche debba avere.</p>
<p style="text-align: justify;">Rispondendo a queste domande, come anticipato, l’Autorità europea ha introdotto nuove regole che, imposte dal trattamento delle informazioni personali (che ne costituisce presupposto di applicazione), si aggiungono alle regole europee che disciplinano il funzionamento dei sistemi di IA e ne condizionano l’applicazione. In questo senso, l’EDPB non pare avere esteso o caratterizzato le regole generali di <em>data protection</em> nella dimensione della IA, ma pare averne creato di nuove, concepite <em>ad hoc</em> per questo nuovo ambito tecnologico. Così, sono state introdotte regole di protezione dei dati che configurano una sorta di disciplina fondamentale, non solo europea<a href="#_ftn4" name="_ftnref4">[4]</a>, dell’attività dei sistemi di IA.</p>
<p style="text-align: justify;">A <em>latere</em> di tutto ciò, si consideri che l’Autorità ha dettato queste regole indirizzandole esplicitamente al trattamento dei dati personali realizzato da modelli di IA nei quali la macchina, svolgendo sequenze di funzioni matematiche riferite ai dati introdotti, elabora più o meno autonomamente, attraverso una fase c. d. di <em>training</em>, lo stesso modello che la dovrà fare funzionare (essenzialmente si tratta delle reti neurali in grado di autodeterminare le regole del proprio apprendere e del proprio fornire soluzioni operative definite anche modelli di <em>deep learning</em> o di <em>machine learning</em>, definizioni con le quali si  allude al fatto che la macchina impara da sola ad elaborare soluzioni attraverso passaggi di calcolo nascosti all’utente e spesso irrecuperabili)<a href="#_ftn5" name="_ftnref5"><sup>[5]</sup></a>. Parrebbero esclusi, invece, i modelli introdotti dal programmatore nella macchina la quale, poi, si “limita”, seguendo le istruzioni impartite e utilizzando <em>big data</em>, a dedurre logicamente le soluzioni operative<a href="#_ftn6" name="_ftnref6"><sup>[6]</sup></a>. L’EDBP, peraltro, chiarisce che l’avere fatto riferimento esclusivamente a modelli di <em>machine learning</em> deriva dal quesito proposto dalla Autorità irlandese e che, quindi, le nuove regole elaborate sono applicabili ad ogni “modello” di IA che tratta dati personali (praticamente tutti) e, correlativamente, anche ai “sistemi” di IA<a href="#_ftn7" name="_ftnref7">[7]</a>. Infatti, nonostante le sue descrizioni e classificazioni, si afferma che “<em>in line with the Request, the scope of this Opinion only covers the subset of AI models that are the result of a training of such models with personal data</em>”.</p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;" start="2">
<li><em> Le regole introdotte dall’Opinion: il presupposto di applicazione della data protection come trattamento di dati non anonimizzati.</em></li>
</ol>
<p style="text-align: justify;"><em> </em></p>
<p style="text-align: justify;">Venendo alle regole introdotte dall’Opinion, l’Autorità ha determinato innanzitutto in quali casi un sistema di IA realizza un trattamento di dati personali e, per questo, deve essere sottoposto all’applicazione della <em>data protection</em>. A tale fine, con un argomentazione <em>a contrario</em>, ha chiarito in quali casi lo sfruttamento delle informazioni è effettuato anonimizzando completamente i dati personali che sfrutta e, quindi, in quali circostanze è possibile disattendere gli obblighi e le prescrizioni di <em>data protection</em>. Nella ricostruzione dell’Autorità l’anonimizzazione, infatti, è l’unica via di uscita dal sistema normativo di protezione dei dati personali perché è l’unico strumento che rende il trattamento automatizzato inoffensivo sul piano dei diritti della persona<a href="#_ftn8" name="_ftnref8"><sup>[8]</sup></a>. </p>
<p style="text-align: justify;">Dal punto di vista tecnico dell’EDPB, i modelli di IA, soprattutto quelli di <em>deep learning</em> e di <em>machine learning</em>, conservano traccia dei dati personali utilizzati nel processo di <em>training</em> (quelli degli utenti dei sistemi ma anche quelli di soggetti terzi). Per potere affermare la piena anonimizzazione, allora, è necessario dimostrare che le informazioni personali sfruttate non siano in alcun modo recuperabili, neanche attraverso nuovi processi di analisi dei modelli. Allo stesso modo, le indicazioni di <em>output</em> fornite dalla macchina non debbono essere in alcun modo riferite a persone i cui dati sono stati sfruttati nel <em>training</em>.</p>
<p style="text-align: justify;">Naturalmente, fedele alla filosofia dell’<em>accountability<a href="#_ftn9" name="_ftnref9"><sup><strong>[9]</strong></sup></a></em>, l’Autorità ha obbligato gli sviluppatori dei sistemi (considerati titolari di trattamento) a dimostrare l’avvenuta anonimizzazione ma ha fornito, a questo proposito, alcune importanti indicazioni operative. E’ necessario, innanzitutto, realizzare una valutazione del rischio che i dati personali possano essere estratti o derivati da una analisi del funzionamento e dalle operazioni svolte dai modelli; la valutazione deve considerare la migliore tecnologia disponibile; si deve tenere conto del rischio di accesso ai dati anche ad opera di terzi estranei. In sostanza, può essere affermata l’avvenuta anonimizzazione solo quando sia insignificante la probabilità di accedere alle informazioni personali analizzando (anche attraverso accessi esterni non autorizzati) i processi di <em>training</em> del modello di IA<a href="#_ftn10" name="_ftnref10"><sup>[10]</sup></a>.</p>
<p style="text-align: justify;">Per concludere sul punto, l’EDPB ha riaffermato nella dimensione della IA la regola generale secondo la quale l’effetto naturale dell’utilizzo di informazioni personali è l’applicazione degli obblighi e delle garanzie del GDPR, a meno che non si dimostri la sostanziale impossibilità di recuperare le informazioni e ricollegarle a persone fisiche determinate. Nel medesimo tempo, sul piano normativo, ha imposto una serie di modalità tecniche specifiche per affermare l’avvenuta anonimizzazione, modalità che costituiscono l’unica <em>exit strategy</em> per sottrarsi all’applicazione del GDPR.</p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;" start="3">
<li><em> Le regole imposte dall’utilizzo della base giuridica di trattamento del legittimo interesse.</em></li>
</ol>
<p style="text-align: justify;"><em> </em></p>
<p style="text-align: justify;">Il documento ha considerato, poi, se la realizzazione di un c. d. “legittimo interesse”, di cui all’art. 6, comma 1, lett. f), GDPR, possa rappresentare una base giuridica adeguata per potere effettuare lecitamente il trattamento dei dati personali, nello sviluppo o nell’utilizzo di un modello di IA. In altri termini, ci si è chiesto se sia possibile sfruttare informazioni personali anche prescindendo dalla volontà della persona a cui esse si riferiscono (come accade quando l’interessato presta il proprio consenso al trattamento dei dati o richiede la conclusione o l’esecuzione di un rapporto giuridico che rende necessario il loro utilizzo).<a href="#_ftn11" name="_ftnref11"><sup>[11]</sup></a></p>
<p style="text-align: justify;">Per l’Autorità, anche in materia di modelli di IA, il perseguimento di un legittimo interesse,   può rappresentare la base giuridica adeguata per il trattamento lecito dei dati. Tuttavia, secondo il principio di <em>accountability</em>, il titolare deve dimostrare, da un lato, che il legittimo interesse ha specifiche caratteristiche, essenzialmente quella di prevalere sulle posizioni soggettive degli interessari senza rappresentarne una sostanziale violazione, e, dall’altro, che lo sfruttamento dei dati avviene secondo modalità determinate dalla <em>data protection</em> che, pur in assenza del consenso dell’interessato, lo rendono tollerabile.<a href="#_ftn12" name="_ftnref12"><sup>[12]</sup></a> Tutti questi elementi divengono, nella ricostruzione della <em>Opinion</em>, le nuove coordinate di legittimità del trattamento dei dati personali attraverso modelli e sistemi di IA.</p>
<p style="text-align: justify;">Più nello specifico, il documento ha chiarito che si deve sempre considerare se la realizzazione di un determinato legittimo interesse imponga effettivamente un determinato trattamento di dati personali, il quale, in altri termini, deve risultare sempre assolutamente necessario e proporzionato, senza che vi siano modalità di sfruttamento delle informazioni meno intrusive della sfera personale degli interessati: “<em>This is particularly relevant for the development of AI models. When assessing whether the condition of necessity is met, SAs should pay particular attention to the amount of personal data processed and whether it is proportionate to pursue the legitimate interest at stake, also in light of the data minimisation principle</em>”.<a href="#_ftn13" name="_ftnref13"><sup>[13]</sup></a> Così, utilizzare quanti più dati possibile, elemento caratterizzante dei modelli di IA (soprattutto per insegnare agli stessi modelli a “fare tutto”, cioè per impiegarli per un ventaglio non definito a priori di finalità), non è più lecito per definizione, a meno che non se ne dimostri l’assoluta necessità per realizzare gli obiettivi operativi primari dei sistemi.<a href="#_ftn14" name="_ftnref14"><sup>[14]</sup></a></p>
<p style="text-align: justify;">Ma una volta che il titolare di trattamento abbia dimostrato l’esistenza di un interesse collegato inscindibilmente al trattamento dei dati, l’autorità gli impone comunque di valutare ed affermare anche la sua prevalenza rispetto ai diritti degli interessati, per verificare se essi possano essere lecitamente ridimensionati o compressi (il c. d. <em>balancing test</em>). A questo proposito, l’<em>Opinion</em> ha chiarito che, in via generale, un utilizzo scorretto dei modelli di IA (peraltro non solo sul piano della <em>data </em>protection che qui interessa) per essere il legittimo interesse non prevalente rispetto alle posizioni soggettive degli interessari, può pregiudicare i loro diritti fondamentali consolidatesi nel diritto europeo (quali ad esempio la pretesa al controllo dei propri dati, la salvaguardia della propria condizione economica, l’accesso a servizi e posti di lavoro, l’accesso alla sanità ed all’istruzione). Così, l’utilizzo massivo e indiscriminato di dati personali può generare, nelle persone, un senso di sorveglianza o meccanismi di autocensura (in violazione della libertà di espressione dell’art. 11 della Carta dei diritti dei cittadini europei); la possibilità di trarre dati personali dai modelli, anche attraverso attacchi esterni, conduce a furti di identità, frodi, od al disvelamento di appartenenza a strutture associative (in violazione degli art. 7 e 8 della Carta); la presentazione di contenuti inappropriati a soggetti fragili può mettere in pericolo la loro serenità mentale (in violazione dell’art. 3 della Carta); l’utilizzo di modelli discriminatori può pregiudicare la vita lavorativa o sociale (in violazione degli artt. 15 e 21)<a href="#_ftn15" name="_ftnref15"><sup>[15]</sup></a>.</p>
<p style="text-align: justify;">In questa parte, l’EDPB ha chiarito, così, che un utilizzo illecito di modelli di IA, perché non sostenuto da un’adeguata base giuridica di legittimo interesse, non può essere considerato una mera irregolarità formale priva di lesività ma, al contrario produce un impatto reale sulle libertà fondamentali. </p>
<p style="text-align: justify;">In via consequenziale, l’<em>Opinion</em> ha elaborato regole per garantire che il trattamento dei dati, &#8211; pur necessario e proporzionato per realizzare un interesse giuridicamente prevalente in astratto &#8211; non risulti eccessivamente impattante in concreto, anche considerando il contesto in cui esso viene realizzato. A questo proposito, il fatto che l’interessato, in relazione a vari fattori (le modalità di acquisizione dei dati, il carattere pubblico dei dati, il fatto che siano forniti dall’interessato o tratti dal <em>web</em>, la natura del servizio fornito, la relazione dell’interessato con il titolare, la sede in cui sono conservati i dati, la plausibilità di un utilizzo ulteriore delle informazioni rispetto alle finalità originarie, l’utilizzo dei dati anche per fornire servizi a terzi o per implementare il modello ecc… ) non si attende ragionevolmente che i suoi dati personali vengano impiegati, lo pone in una situazione di debolezza che rende l’eventuale trattamento eccessivamente impattante per definizione.<a href="#_ftn16" name="_ftnref16"><sup>[16]</sup></a> Così, per ricostituire l’equilibrio tra i soggetti coinvolti il titolare di trattamento è obbligato a chiarire all’interessato che tipo di sfruttamento delle informazioni debba aspettarsi. Tuttavia, “<em>while the omission of information can contribute to the data subjects not expecting a certain processing, the mere fulfilment of the transparency requirements set out in the GDPR is not sufficient in itself to consider that the data subjects can reasonably expect a certain processing. Further, simply because information relating to the development phase of an AI model is included in the controller’s privacy policy, it does not necessarily mean that the data subjects can reasonably expect it to happen; rather, this should be analysed by SAs on the specific circumstances of the case and considering all of the relevant factors</em>”.<a href="#_ftn17" name="_ftnref17"><sup>[17]</sup></a></p>
<p style="text-align: justify;">La complessità dell’utilizzo delle informazioni personali, in altri termini, impone allo sviluppatore ed all’utilizzatore di un modello obblighi informativi a “geometria variabile”, commisurati all’aspettativa dell’interessato ed alle potenzialità di impiego del sistema di IA. In questo senso, l’EDPB ha implementato ed arricchito il contenuto delle regole di trasparenza già previste in via generale dal GDPR.<a href="#_ftn18" name="_ftnref18"><sup>[18]</sup></a> Peraltro, sempre in ossequio al principio dell’<em>accountability</em>, ha rimesso in concreto al titolare di trattamento la determinazione e l’applicazione dei nuovi obblighi.</p>
<p style="text-align: justify;">Nel caso in cui, peraltro, nonostante l’applicazione di tutte queste regole di trattamento, il legittimo interesse per il quale vengono utilizzate le informazioni non sembri prevalere chiaramente sui diritti delle persone coinvolte, i modelli di IA, secondo le indicazioni della Autoritò, possono essere utilizzati solo applicando una serie di “<em>Mitigating measures</em>” coniate dall’EDPB, ovvero <em> “safeguards that should be tailored to the circumstances of the case and depend on different factors, including on the intended use of the AI model</em>”.<a href="#_ftn19" name="_ftnref19"><sup>[19]</sup></a> In questo modo, sono stati introdotti obblighi nuovi rispetto a quelli previsti dal GDPR.</p>
<p style="text-align: justify;">Più specificamente, attraverso le misure di mitigazione è stato previsto che intercorra un ragionevole periodo di tempo tra la raccolta dei dati personali ed il loro utilizzo per il <em>training </em>dei modelli, in modo da consentire agli interessati di esercitare i propri diritti di <em>data protection</em> già in questa fase, cioè prima che il trattamento possa recare un pregiudizio effettivo. Inoltre, sono stati attribuiti nuovi contenuti a questi stessi diritti. Infatti, è stato riconosciuto agli interessati il diritto incondizionato di opporsi all’utilizzo dei loro dati dopo la raccolta (“<em>an unconditional ‘opt-out’</em>”), mentre il GDPR ammette l’opposizione solo nel caso in cui i diritti dell’interessato prevalgano sul legittimo interesse del titolare<a href="#_ftn20" name="_ftnref20"><sup>[20]</sup></a>. Ancora, è stato affermato dall’Autorità il diritto alla cancellazione dei dati anche fuori dai presupposti del diritto all’oblio del regolamento europeo di <em>data protection.<a href="#_ftn21" name="_ftnref21"><sup><strong>[21]</strong></sup></a></em> Infine, sono state imposte dallo stesso documento, forme di reclamo adeguate per ogni caso di “<em>data regurgitation or memorisation</em>”.<a href="#_ftn22" name="_ftnref22"><sup>[22]</sup></a></p>
<p style="text-align: justify;">A tutto ciò si aggiunge che l’<em>Opinion</em>, con riguardo al trattamento di dati tramite IA per realizzare un legittimo interesse, ha moltiplicato gli obblighi di informazione originariamente previsti dal GDPR. Le indicazioni dell’Autorità “<em>may help overcoming the information asymmetry and allow data subjects to get a better understanding of the processing involved in the development phase</em>”.<a href="#_ftn23" name="_ftnref23"><sup>[23]</sup></a> A questo proposito, si è imposto che  vengano rese pubbliche informative con contenuti ulteriori rispetto a quelli previsti dagli art. 13 e 14 del GDPR “<em>for instance by providing additional details about the collection criteria and all datasets used, taking into account special protection for children and vulnerable persons</em>”. Inoltre, sono state previste forme di pubblicità ulteriori quali “<em>media campaigns with different media outlets to inform data subjects, information campaign by e-mail, use of graphic visualisation, frequently asked questions, transparency labels and model cards the systematisation of which could structure the presentation of information on AI models, and annual transparency reports on a voluntary basis</em>”.<a href="#_ftn24" name="_ftnref24"><sup>[24]</sup></a></p>
<p style="text-align: justify;">Anche con riguardo alla pratica del <em>web scraping</em> diretto a perseguire un legittimo interesse, sono state introdotte regole importanti. Sul piano tecnico, innanzitutto, si debbono prevedere meccanismi che escludano l’utilizzo di informazioni che – per essere tratte da pubblicazioni particolari – possano porre a rischio determinate persone; debbono essere esclusi siti da cui possono essere tratti dati particolarmente sensibili; debbono essere ignorati siti che si oppongono allo <em>scraping</em>; debbono essere previsti dei criteri di limite alla raccolta basati sul tempo. Ulteriore soluzione ragionevole, per l’EDPB, è quella di imporre liste di <em>opt out</em> che consentano agli interessati, senza condizioni, di opporsi allo sfruttamento dei loro dati tratti da determinati siti o piattaforme.</p>
<p style="text-align: justify;">L’autorità, infine,  si è raccomandata di “<em>to prevent the storage, regurgitation or generation of personal data, especially in the context of generative AI models (such as output filters), and/or to mitigate the risk of unlawful reuse by general purpose AI models (e.g. digital watermarking of AI-generated outputs)</em>”. Soprattutto però, in termini generali, ha imposto  di riconoscere agli interessati diritti di cancellazione dei dati dall’<em>output</em> del modello e dalla deduplicazione, nonchè di introdurre tecniche di rimozione e cancellazione dei dati personali anche “<em>beyond what is required by law</em>”.<a href="#_ftn25" name="_ftnref25"><sup>[25]</sup></a></p>
<p style="text-align: justify;"> </p>
<ol style="text-align: justify;" start="4">
<li><em> Alcune considerazioni finali </em></li>
</ol>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;">Sulla base dei contenuti dell’<em>Opinion</em> è possibile trarre alcune considerazioni finali.</p>
<p style="text-align: justify;">In prima battuta, l’autorità europea ha affermato che l’impiego di modelli di IA ha come effetto naturale il trattamento dei dati personali e l’applicazione del GDPR, a meno che non si provi, secondo la migliore tecnologia disponibile, l’anonimizzazione o l’assoluta irrecuperabilità delle informazioni.</p>
<p style="text-align: justify;">Si ha un’inversione dell’onere della prova: non è la dimostrazione dell’avvenuto trattamento di dati in un modello di IA ad importare l’applicazione delle regole di protezione ma il non essere in grado di escluderlo in assoluto (neppure attraverso la riacquisizione od il riutilizzo). In sostanza, gli utilizzatori dei modelli di IA sono stati assogettati agli obblighi di protezione europei a meno che non siano in grado di produrre una prova negativa – l’assenza di trattamento per effetto di un’anonimizzazione e di una cancellazione definitiva delle informazioni – che, date le potenzialità delle soluzioni tecnologiche di IA, appare quantomeno difficoltosa.  </p>
<p style="text-align: justify;">Come si vede, la volontà normativa dell’Autorità è quella di tagliare il nodo gordiano della valutazione della sussistenza del trattamento di dati, imponendo di <em>default</em> le garanzie del GDPR, salva l’<em>exit strategy</em> non agevole della loro anonimizzazione o irrecuperabilità. Il tutto a spostare il baricentro della protezione a vantaggio dei diritti fondamentali degli interessati.</p>
<p style="text-align: justify;">Successivamente, attraverso considerazioni relative ai meccanismi di bilanciamento del legittimo interesse con le posizioni soggettive degli interessati, l’EDPB, sembra avere sfruttato l’occasione per introdurre una serie di nuove regole di protezione che hanno due caratteristiche fondamentali: sono innovative rispetto a quelle previste dalle fonti della <em>data protection</em> ed hanno un contenuto specifico rimesso alla responsabiità ed alla competenza tecnica degli utilizzatori dei modelli di IA.  </p>
<p style="text-align: justify;">In questo quadro, in via generale e preliminare, l’Autorità ha chiarito che non è lecito per definizione acquisire ed utilizzare quante più informazioni possibile dalla rete, anche se questo amplifica le funzionalità dei modelli di IA. Deve rimanere fermo, invece, un rigido canone di necessità e di proporzionalità nello sfruttamento delle informazioni e, quindi, nell’invasione della sfera personale. Il tutto con una rigida predeterminazione delle finalità di trattamento.</p>
<p style="text-align: justify;">Quindi, sulla scorta della posizione di debolezza dell’interessato a cui non è richiesto il  consenso per lo sfruttamento delle informazioni, il principio di trasparenza è stato valorizzato a tal punto da imporre all’utilizzatore di un modello di IA ogni obbligo necessario ad evitare ogni “effetto sopresa” sull’interessato a proposito dello sfruttamento dei suoi dati personali od ogni forma di sudditanza psicologica che induca quest’ultimo a limitare la propria partecipazione sociale digitale. A questo proposito, l’<em>Opinion</em> ha chiarito che non è necessario applicare solo gli obblighi informativi del GDPR ma anche elaborare strumenti nuovi che paiono sconfinare nel campo dell’educazione digitale, con un’azione che sembra essere pedagogica più che di correttezza di rapporto.</p>
<p style="text-align: justify;">In questa prospettiva l’Autorità si è spinta ad introdurre nuove norme, le c. d. misure di mitigazione, che sono estranee alla dimensione della trasparenza ma che proteggono le libertà fondamentali degli interessati, arricchendo i contenuti del diritto alla protezione dei dati personali del GDPR. Ecco allora i termini tra l’acquisizione ed l’utilizzo dei dati, i nuovi diritti di opposizione e cancellazione e le nuove forme di reclamo. Anche in questo caso, poi, è stata rimessa all’autoresponsabilità dei titolari l’introduzione di ulteriori forme di protezione, più efficaci in relazione allo sviluppo tecnologico.</p>
<p style="text-align: justify;">Sono stati inoltre anche previsti rigidi limiti al <em>web scraping</em> (limitandone i tempi e le sedi) per delineare specifiche condizioni di legittimità rispetto alla “pesca a strascico” delle informazioni in <em>internet</em> che non può rappresentare una zona france di trattamento. Nel medesimo tempo, soprattutto con riguardo alla IA generativa, sono state imposte come necessarie forme di limitazione alla riemersione di dati dai modelli ed al loro riutilizzo.</p>
<p style="text-align: justify;">Tutto ciò considerato, l’azione regolatoria dell’autorità europea ha fatto emergere alcuni principi fondamentali in materia di disciplina ma anche di politica del diritto con riferimento ai modelli (ed ai sistemi) di IA.</p>
<p style="text-align: justify;">Sul pressupposto della necessaria applicazione della <em>data protection </em>(dalla quale non si può sfuggire se non attraverso una <em>probatio quasi diabolica</em>), l’IA può essere realizzata ed utilizzata per perseguire gli interessi leciti degli sviluppatori, senza quindi essere assoggettata alle condizioni di legittimità più gravose della normativa europea – come il consenso al trattamento dei dati da parte dell’interessato o l’inquadramento all’interno di rapporti contrattuali che richiedono la rigida determinazione dei presupposti e delle finalità di utilizzo delle informazioni – a patto che tutto ciò avvenga all’interno di una fitta “rete di contenimento” formata da prescrizioni di protezione delineate dalla regolazione ma rimesse, nella determinazione del loro contenuto specifico, alla responsabilità dei tecnici.</p>
<p style="text-align: justify;">Si tratta di un sistema normativo articolato ed aperto che, all’interno di coordinate fondamentali dettate dall’amministrazione indipendente europea (e dai principi generali della normativa), consente di essere continuamente adeguato ed implementato in ragione degli sviluppi tecnologici ma anche delle mutate condizioni di rischio di violazione delle libertà fondamentali. Pare emergere la volontà, che forse avrebbe dovuto essere espressa in maniera esplicita da un intervento normativo del legislatore europeo anche in materia di <em>data protection</em>, di non rallentare lo slancio di uno sviluppo digitale ed operativo ormai irrefrenabile ma, allo stesso tempo, di non ridimensionare il patrimonio continentale dei diritti inviolabili.</p>
<p style="text-align: justify;">Il quadro normativo tracciato sembra essere il migliore compromesso possibile tra la garanzia del progresso tecnologico e quello della tradizione giuridica di protezione della persona e della società. La scelta sembra essere credibile, anche se dovrà necessariamente superare la prova del tempo e delle conseguenze degli sviluppi tecnologici.</p>
<p style="text-align: justify;"> </p>
<p style="text-align: justify;"><a href="#_ftnref1" name="_ftn1">[1]</a> Ma in materia l’EDPB aveva già prodotto EDPB, <em>Report of the work undertaken by the ChatGPT Taskforce</em>, adopted 23 May 2024.</p>
<p style="text-align: justify;"><a href="#_ftnref2" name="_ftn2">[2]</a> Sul Regolamento, escludendo l’amplissima letteratura sul progetto, sulla quale basti C. Marenghi,</p>
<p style="text-align: justify;"><em>La proposta di regolamento ue sull&#8217;intelligenza artificiale e la regolazione privata: spunti critici in tema di norme tecniche armonizzate</em>, in <em>Diritto comunitario e degli scambi internazionali</em>, 2021, 563, cfr. G. Finocchiaro, <em>Diritto dell&#8217;intelligenza artificiale</em>, Bologna, 2024; R. Petruso – G. Smorto, <em>Il Regolamento europeo sull’intelligenza artificiale: una prima lettura</em>, in <em>Nuova giurisprudenza civile commentata</em>, 2024, 989. Per un commento sistematico C. N. Pehlivan, N. Forgó, P. Valcke, <em>The EU Artificial Intelligence (AI) Act: a commentary</em>, Deventer, 2025. Sui rapporti tra normativa sulla IA e sulla <em>data protection</em> cfr. P. Falletta, A. Marsano, <em>Intelligenza artificiale e protezione dei dati personali: il rapporto tra Regolamento europeo sull’intelligenza artificiale e GDPR</em>, in <em>Rivista italiana di informatica e diritto</em>, 2024, 119; M, Cappai, <em>Intelligenza artificiale e protezione dei dati personali nel d.d.l. n. 1146: quale governance nazionale?</em>, in <em>federalismi.it</em>, 2024, 30, 186; G. Finocchiaro, <em>Diritto dell’intelligenza artificiale, </em>op. cit. su cui già Id., <em>Intelligenza Artificiale e protezione dei dati personali</em>, in <em>Giurisprudenza Italiana</em>, 2019, 1670.</p>
<p style="text-align: justify;"><a href="#_ftnref3" name="_ftn3">[3]</a> L’Autorità irlandese ha chiesto: a) se, in qualche caso, un modello di IA, pur addestrato con informazioni personali, possa essere sottratto dall’applicazione del Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 (di seguito GDPR), nella misura in cui le stesse informazioni possono ritenersi non riconducibili alla figura di dato personale della stessa normativa (ad esempio perché le informazioni sono anonimizzate); b) se il “legittimo interesse” possa essere considerato una condizione di liceità per potere sfruttare dati personali al fine di sviluppare un modello di IA; c) quali caratteri debba avere il “legittimo interesse” per essere condizione sufficiente di liceità di trattamento nel caso di sfruttamento di dati personali nel <em>training</em> di un modello di IA; d) se, quando un modello di IA è stato creato o sviluppato violando le regole di protezione dei dati personali, risulti illecito anche il suo successivo sviluppo o utilizzo.</p>
<p style="text-align: justify;"><a href="#_ftnref4" name="_ftn4">[4]</a> Si ricordi il c. d. <em>Brussels effect</em>, cioè la naturale tendenza espansiva della normativa europea a condizionare anche fenomeni tecnologici di origine extraeuropea cfr. A. Bradford, <em>The Brussels Effect. How the European Union Rules the World</em>, Oxford, Oxford University Press, 2020.</p>
<p style="text-align: justify;"><a href="#_ftnref5" name="_ftn5">[5]</a> Non è questa la sede per illustrare la classificazione tecnica dei vari modelli di IA, ma per riferimenti essenziali P. Traverso, <em>Breve introduzione tecnica all’Intelligenza Artificiale</em>, in <em>DPCE online</em>, 2022, 155, e S. B. Grenci, <em>Le applicazioni di Intelligenza artificiale a supporto dell’automazione del procedimento amministrativo</em>, in <em>Rivista italiana di informatica e diritto, </em>2024, 218, che illustra anche il fenomeno delle <em>black box</em> ovvero dell’impossibilità di recuperare le regole od i meccanismi che governano la macchina (il modello di funzionamento) che la macchina stessa si è data attraverso il <em>training</em> che ha compiuto utilizzando una quantità amplissima di dati. In tema i riferimenti di G. Lo Sapio, <em>La black box: l’esplicabilità delle scelte algoritmiche quale garanzia di buona amministrazione</em>, in <em>Federaismi.it</em>, 2021, 114.</p>
<p style="text-align: justify;"><a href="#_ftnref6" name="_ftn6">[6]</a> Su questi diversi modelli di IA cfr. sempre P. Traverso, <em>Breve introduzione tecnica all’Intelligenza Artificiale</em>, op. cit.. L’Autore illustra le forme di <em>Model based AI</em> ove un progettista definisce e costruisce un modello di un fenomeno che “<em>deve avere la caratteristica di poter essere inserito in un computer in modo da essere utilizzato dal computer stesso per calcolare, dare risposte, fare analisi, o operare e agire nel mondo. Un modello formale può essere ad esempio una ontologia, ovvero uno schema concettuale che, ad esempio, classifica diversi concetti</em>” (pag. 158-159). Si tratta di modelli di <em>Logic, knowledge-based o simbolic AI</em>. Poi, l’Autore definisce i differenti modelli di <em>machine learning</em> o di apprendimento automatico nei quali “<em>il modello di un fenomeno viene ottenuto dai dati, ad esempio dai dati disponibili su web, dai numerosi sensori nelle nostre città, dai sensori indossabili (si pensi ai dati raccolti sulla nostra salute dai sensori presenti in un semplice smart watch)</em>” (pag. 160).</p>
<p style="text-align: justify;"><a href="#_ftnref7" name="_ftn7">[7]</a> Infatti, nonostante le sue descrizioni e classificazioni, afferma che “<em>in line with the Request, the scope of this Opinion only covers the subset of AI models that are the result of a training of such models with personal data</em>”<em> Opinion</em>, pag. 12.</p>
<p style="text-align: justify;">In via generale mentre i modelli possono essere definiti come quelle istruzioni essenziali che guidano i sistemi, i quali, però, per funzionare, richiedono la presenza di componenti informatici aggiuntivi, come un’interfaccia per l’utente i sistemi possono essere definiti come quelle infrastruttue informatiche capaci di inferire un <em>output</em> sulla base di un <em>imput</em>  ricevuto. Vedi <em>infra</em> la definizione dell’<em>IA act</em>.</p>
<p style="text-align: justify;">L’art. 3 dell’IA act definisce un «sistema di IA» come: “<em>un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall&#8217;input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali</em>. La definizione è ampia, flessibile, neutra da un punto di vista tecnologico ed in grado di comprendere tecniche in continua evoluzione. Essa riprende quella già elaborate dall’OCSE nelle sue varie Raccomandazioni (del novembre 2023 e del maggio 2024 con l’<em>Explanatory memorandum </em>del marzo 2024) che è in grado di comprendere sistemi basati sia sul <em>machine learning</em> che sul <em>knowledge-based</em> e sul <em>logic-based</em> cfr. <em>Recommendation of the Council on Artificial Intelligence</em>, OECD/LEGAL/0449, 2024. Come afferma il considerando n. 12 del Regolamento “<em>la definizione dovrebbe essere basata sulle principali caratteristiche dei sistemi di IA, che la distinguono dai tradizionali sistemi software o dagli approcci di programmazione più semplici, e non dovrebbe riguardare i sistemi basati sulle regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico</em>”.  Inoltre “<em>Le tecniche che consentono l&#8217;inferenza nella costruzione di un sistema di IA comprendono approcci di apprendimento automatico che imparano dai dati come conseguire determinati obiettivi e approcci basati sulla logica e sulla conoscenza che traggono inferenze dalla conoscenza codificata o dalla rappresentazione simbolica del compito da risolvere</em>”. Sulle definizioni che si sono succedute nei vari documenti europei fino all’<em>IA act </em>C. Trincado Castán, <em>The legal concept of artificial intelligence: the debate surrounding the definition of AI System in the AI Act</em>, in <em>BioLaw Journal – Rivista di BioDiritto</em>, n. 1/2024, 305.</p>
<p style="text-align: justify;"><a href="#_ftnref8" name="_ftn8">[8]</a> Per un’illustrazione delle figure dell’anonimizzazione, della pseudonimizzazione e delle ragioni tecniche per le quali esse conducono alla non applicazione della data protection cfr. G. D&#8217;Acquisto &#8211; M. Naldi, <em>Big data e privacy by design</em>, Torino, 2017, pagg. 33 e segg., per le tecniche di anonimizzazione pag. 41 e segg…</p>
<p style="text-align: justify;"><a href="#_ftnref9" name="_ftn9">[9]</a> Come afferma la dottrina il principio non è da intendersi “<em>in senso meramente formale come documentazione delle misure protettive adottate, bensì in senso sostanziale come uno sforzo imposto al titolare di assumersi l’onere della piena conformità con il Regolamento</em>”, F. Galli, <em>Il principio di accountability</em>, in L. Califano, V. Fiorillo, F. Galli (a cura di), <em>La protezione dei dati personali: natura, garanzie e bilanciamento di un diritto fondamentale</em>, Torino, 2023. Sul principio già G. Finocchiaro, <em>Il principio di </em>accountability, in <em>Giur. it.</em>, 2019, 2778.</p>
<p style="text-align: justify;"><a href="#_ftnref10" name="_ftn10">[10]</a> l’EDPB fornisce anche alcune misure esemplificative per rendere effettiva l’anonimizzazione quali la selezione e la minimizzazione delle fonti, l’adozione di metodi di riservatezza, la verifica e la documentaizone di tecniche contro gli attacchi esterni (cfr. pagg. 16 – 18 dell’<em>Opinion</em>).</p>
<p style="text-align: justify;"><a href="#_ftnref11" name="_ftn11">[11]</a> L’<em>Opinion</em> richiama Corte di Giustizia UE, sent. 4 luglio 2023, C-252/21, <em>Meta v. Bundeskartellamt</em> e Id. sent. 11 dicembre 2019, C-708/18, <em>Asociaţia de Proprietari bloc M5A-ScaraA</em>. Ma si consideri anche Corte giust. UE, sent. 4 maggio 2017, C-75/16, <em>Menini e Rampanelli</em>. L’Opinion richiama anche le recenti Linee Guida, EDPB <em>Guidelines 1/2024 on processing of personal data based on Article 6(1)(f) GDPR</em>, Versione 1.0, 8 ottobre 2024. Si tenga conto che recentemente la Corte di Giustizia ha interpretato in senso molto restrittivo la base giuridica della necessità del trattamento per eseguire un contratto, escludendola di fatto per l’incrocio di dati sfruttati nel contesto di un <em>social network</em> Corte di Giustizia UE, Grande camera, sent. 4 luglio 2023, C-252/21, <em>Meta Platforms Inc. et al. v. Bundeskartellamt</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref12" name="_ftn12">[12]</a> Come è noto, per verificare l’idoneità del legittimo interesse a fungere da base legale è necessario verificare e dimostrare (ad opera del titolare): a) la legittimità dell’interesse perseguito, c. d. <em>purposse test</em>; b) la necessarietà del trattamento, c. d. <em>necessity test</em>; c) la non prevalenza dell’interese del titolare sulle libertà e sui diritti degli interessati c. d. <em>balancing test</em>. Cfr. V Fiorillo, <em>Le condizioni di liceità del trattamento</em>, in <em> </em>L. Califano, V. Fiorillo, F. Galli (a cura di)<em>, La protezione dei dati personali: natura, garanzie e bilanciamento di un diritto fondamentale</em>, op. cit. Sui caratteri di questa base giuridica nel quadro di una più complessa elaborazione delle garanzie da fornire all’interessato cfr. G. Proietti, <em>Algoritmi e interesse del titolare del trattamento nella circolazione dei dati personali</em>, in <em>Contratto e impresa</em>, 2022, 880.</p>
<p style="text-align: justify;"><a href="#_ftnref13" name="_ftn13">[13]</a> <em>Opinion</em>, pag. 23</p>
<p style="text-align: justify;"><a href="#_ftnref14" name="_ftn14">[14]</a> Pare in questo senso superata l’idea dell’incompatibilità tra sistemi di IA e principio di proporzionalità considerata da parte della dottrina T. Zarsky, <em>Incompatible: the GDPR in the age of big data</em>, in <em>Seton Hall Law Review</em>, Vol. 47, No. 4(2), 2017, 995 e M. Ebers, <em>Regulating ai and robotics: ethical and legal challenges</em>, in M. Ebers – S. Navas Navarro (eds.), <em>Algorithms and Law</em>, Cambridge, Cambridge University Press, 2019. In quest’ottica, l’<em>Opinion</em> pare recuperare con riguardo ai sistemi di IA i principi di proporzionalità e minimizzazione recentemente riaffermati per il trattamento di dati fondato sul legittimo interesse nei casi di aggregazione delle informazioni da un <em>social network</em>, Corte giustizia UE, sez. IV, sent. 4 ottobre 2024, n. 446, C-446/21, <em>Ma. Sc. </em>Contro <em>Meta Platforms Ireland Ltd</em>;  nei casi di trattamento di dati acquistati a titolo oneroso per la realizzazione di interessi commerciali Corte giustizia UE, sez. IX, sent. 4 ottobre 2024, n. 621, C-621/22, <em>Koninklijke Nederlandse Lawn Tennisbond</em> contro <em>Autoriteit Persoonsgegevens</em>; nei casi di trattamento di dati dei membri di un fondo di investimento Corte giustizia UE sez. IV, sent. 12 settembre 2024, n. 17 C-17/22 e C-18/22, <em>HTB Neunte Immobilien Portfolio geschlossene Investment UG &amp; Co. KG</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref15" name="_ftn15">[15]</a> Nella ricostruzione dell’EDPB queste lesioni sono da evitare anche perché l’utilizzo legittimo di modelli di IA può agevolare l’esercizio dei diritti fondamentali: “<em>may also positively impact certain fundamental rights, e.g. the model may support the right to mental integrity of the person (Article 3 of the Charter), for instance when an AI model is used to identify harmful content online; or the model may facilitate the access to certain essential services or facilitate the exercise of fundamental rights, such as access to information (Article 11 EU Charter) or access to education (Article 14 EU Charter)</em>” (pag. 25).</p>
<p style="text-align: justify;"><a href="#_ftnref16" name="_ftn16">[16]</a> In questo senso l’<em>Opinion</em> riecheggia indicazioni già contenute in Gruppo di lavoro articolo 29 per la protezione dei dati, <em>Parere 6/2014 sul concetto di interesse legittimo del responsabile del trattamento ai sensi dell’articolo 7 della direttiva 95/46/CE</em>, 9 aprile 2014.</p>
<p style="text-align: justify;"><a href="#_ftnref17" name="_ftn17">[17]</a> <em>Opinion</em>, pag. 27.</p>
<p style="text-align: justify;"><a href="#_ftnref18" name="_ftn18">[18]</a> Con riguardo ai quali cfr. Gruppo di lavoro articolo 29, <em>Linee guida sulla trasparenza ai sensi del regolamento 2016/679</em>, adottate il 29 novembre 2017. Sul principio in generale F. Pizzetti, <em>Privacy e il diritto europeo alla protezione dei dati personali, </em>Torino, 2016, pag. 270; A. Ricci, <em>I diritti dell’interessato</em>, in G. Finocchiaro, <em>La protezione dei dati personali in Italia</em>, Bologna, 2019; F. Galli, <em>I diritti degli interessati</em>, in L. Califano, V. Fiorillo, F. Galli (a cura di)<em>, La protezione dei dati personali: natura, garanzie e bilanciamento di un diritto fondamentale</em>, op. cit. Per un adeguamento/adattamento delle regole di trasparenza in relazione agli sviluppi dei sistemi algoritmici cfr. C. Colapietro, <em>Gli algoritmi tra trasparenza e protezione dei dati personali</em>, in <em>Federalismi.it</em>, 2023, 151.</p>
<p style="text-align: justify;"><a href="#_ftnref19" name="_ftn19">[19]</a> <em>Opinion</em>, pag. 28.</p>
<p style="text-align: justify;"><a href="#_ftnref20" name="_ftn20">[20]</a> Cfr. art. 21 e pag. 29 dell’<em>Opinion</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref21" name="_ftn21">[21]</a> Cfr. art. 17 dell’<em>Opinion</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref22" name="_ftn22">[22]</a> Cfr. pag. 29 dell’<em>Opinion</em>.</p>
<p style="text-align: justify;"><a href="#_ftnref23" name="_ftn23">[23]</a> Cfr. pag. 29.</p>
<p style="text-align: justify;"><a href="#_ftnref24" name="_ftn24">[24]</a> Cfr. pag. 29.</p>
<p style="text-align: justify;"><a href="#_ftnref25" name="_ftn25">[25]</a> <em>Opinion</em>, pag. 30. A questo propostio l’EDPB pare uscire dalla logica che condiziona l’esercizio del diritto alla rettifica ed alla cancellazione alla sussistenza di determinati presupposti (che testimoniano la prevalenza degli interessi dell’interessato). Su questi temi M. A. Livi, <em>Commento all’art. 16, Commento all’art. </em>17, in A. Barba – S. Pagliantini, <em>Commentario del codice civile </em>(diretto da E. Gabrielli)<em>, </em>vol. II, <em>Delle persone</em>. Anche la giurisprudenza europea presuppone questo giudizio di prevalenza nell’affermare il diritto alla cancellazione che viene condizionato all’assenza di “<em>motivi legittimi prevalenti che possano giustificare, in via eccezionale, il trattamento</em>” Corte Giustizia Ue, sez. I, sent. 7 dicembre 2023, C26/22 e C64/22 riunite <em>SCHUFA Holding</em>, sulla quale V. Pietrella – S. Racioppi,  <em>Il &#8220;credit scoring&#8221; e la protezione dei dati personali: commento alle sentenze della corte di giustizia dell’unione europea del 7 dicembre 2023</em>, in <em>Rivista italiana di informatica e diritto</em>, 2024, 175. Per un quadro generale in materia di diritto alla cancellazione cfr. F. Marina,<br /><em>Diritto alla cancellazione dei dati personali e comunicazioni elettroniche</em><br />(nota a sentenza Corte di Giustizia dell&#8217;Unione europea sezione IV 27 ottobre 2022 (causa C-129/21, <em>Proximus NV vs Gegevensbeschermingsautoriteit</em>), in <em>La nuova giurisprudenza civile commentata</em>, 2023, 560.</p>
<p>L'articolo <a href="https://www.giustamm.it/dottrinan/prime-tutele-di-data-protection-nei-confronti-dellintelligenza-artificiale/">PRIME TUTELE DI DATA PROTECTION NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE</a> proviene da <a href="https://www.giustamm.it">Giustamm</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
