Il TAR Lombardia, con la sentenza n. 3349 in data 21 ottobre 2025, ha rigettato il ricorso presentato dai genitori avverso la bocciatura della figlia, sottolineando la mancanza di pertinenza dei precedenti giurisprudenziali citati dall’avvocato con l’ausilio di strumenti di ricerca basati sull’intelligenza artificiale, e ha disposto la segnalazione dell’avvocato al Consiglio dell’Ordine degli Avvocati di pertinenza.
Il caso
Il ricorso censurava la mancata ammissione di una alunna alla classe seconda liceo. Secondo i genitori, all’alunna non sarebbe stata garantita la possibilità di utilizzare gli strumenti dispensativi e compensativi previsti dal piano didattico personalizzato né le misure di recupero e potenziamento per recuperare le precedenti valutazioni insufficienti.
Le doglianze contenute nel ricorso sono state rigettate, sottolineando che la scuola aveva attivato idonee forme di supporto e recupero, nonché applicato le misure dispensative e compensative previste dal piano didattico personalizzato.
In aggiunta, il Collegio ha sottolineato come i diversi precedenti giurisprudenziali citati dalla difesa a sostegno dei vari motivi del ricorso erano non pertinenti, in quanto aventi ad oggetto temi distanti da quello in discussione (dalla materia edilizia ed urbanistica, alla gestione di centri di accoglienza, fino al tema del pubblico impiego).
Il TAR ha quindi disposto, «ai sensi dell’art. 88 c.p.c., applicabile al processo amministrativo in forza del rinvio contenuto nell’art. 39 cod. proc. amm.» l’invio di copia della sentenza al Consiglio dell’Ordine di riferimento del difensore dei ricorrenti.
Da quanto emerso in sede di trattazione orale, l’avvocato ha infatti ammesso di aver citato nel ricorso della giurisprudenza reperita mediante strumenti di ricerca basati sull’intelligenza artificiale che hanno generato risultati errati.
Secondo il TAR «tale condotta costituisce una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità, in quanto introduce elementi potenzialmente idonei ad influenzare il contraddittorio processuale e la fase decisoria verso un percorso non corretto, e perché rende inutilmente gravosa, da parte del giudice e delle controparti, l’attività di controllo della giurisprudenza citata e dei principi dalla stessa apparentemente affermati».
Le considerazioni
Questo arresto richiama l’attenzione su un tema molto caldo, quale è quello dell’applicazione in ambito giuridico degli strumenti, ormai diffusi capillarmente in molteplici ambiti professionali, di intelligenza artificiale.
E’ certamente un bene che i giudici scrutinino la bontà dei richiami giurisprudenziali inseriti dai difensori a sostegno delle tesi giuridiche esposte, anche richiamando la responsabilità degli stessi ai doveri di lealtà e correttezza.
Perché se è vero che già in passato la redazione sciatta, non ordinata e trascurata degli atti poteva giustificare il rigetto delle tesi giuridiche proposte, per mancata allegazione di argomenti convincenti a riprova della bontà delle tesi esposte, a maggior ragione sono oggi da censurare le attività difensive sostanzialmente delegate ai sistemi di intelligenza artificiale, che denotano la mancanza di verifica e di controllo dell’esito delle ricerche effettuate con i suddetti sistemi.
Come sappiamo, l’utilizzo di tali sistemi può condurre a risultati errati – comunemente qualificati come “allucinazioni da intelligenza artificiale” – che si verificano quando tali sistemi inventano risultati inesistenti ma apparentemente coerenti con il tema trattato.
L’avvocato è quindi chiamato ad utilizzare con senno e attenzione i suddetti strumenti, per non gravare gli uffici giudiziari di lavoro aggiuntivo e inutile.
Gli altri casi noti di censura dei risultati abnormi dell’IA
Uno dei primi casi noti di censura da parte delle Corti delle “allucinazioni da intelligenza artificiale” è avvenuto a New York nel 2023, nel caso Mata v. Avianca: un avvocato ha utilizzato ChatGPT per redigere una memoria, ma il sistema ha generato sei precedenti giuridici completamente inventati. Il giudice ha definito le citazioni “falsità legali” e ha sanzionato l’avvocato.
Un episodio simile si è verificato nel febbraio 2025 presso la Corte Suprema del Wyoming. Anche in questo caso l’avvocato ha presentato precedenti inesistenti generati da ChatGPT. Alla richiesta del giudice di fornire i testi delle sentenze, l’avvocato ha ammesso l’errore. La sanzione ha colpito lui e i colleghi firmatari, ma non lo studio legale, che aveva adottato una policy chiara sull’uso dell’IA.
Infine, anche in Italia si sono registrati casi, precedenti a quello in commento, di censura dell’utilizzo di strumenti di intelligenza artificiale.
Si veda ad esempio il caso deciso dal il Tribunale delle imprese di Firenze, nel marzo 2025: con ordinanza del 14 marzo 2025 (https://www.diritto.it/intelligenza-artificiale-atti-difensivi-allucinazio/), i giudici sono stati chiamati a valutare se l’utilizzo improprio di ChatGPT da parte di un difensore possa configurare la responsabilità aggravata per lite temeraria, ai sensi dell’art. 96 c.p.c., ma, nel caso di specie, non hanno ravvisato una responsabilità aggravata per lite temeraria.
Diversamente, la sentenza del Tribunale di Latina del 23 settembre 2025 (https://www.diritto.it/atto-processuale-intelligenza-artificiale-responsa/#block-305f58bb-685d-4d96-a31c-c7dc2a0ab3cb), ha tracciato confini nettissimi sull’uso improprio dell’IA per la redazione di atti giudiziari, ritenendo addirittura che sussistano i presupposti della responsabilità aggravata ex art. 96 comma 3 c.p.c. laddove l’azione legale venga introdotta con grave negligenza, proponendo argomentazioni manifestamente infondate.
Il Tribunale di Latina ha sottolineato come la modalità di redazione degli atti caratterizzata da inconferenza delle citazioni, dall’assenza di un filo logico-giuridico, dall’uso di massime decontestualizzate, non solo compromette la qualità tecnica della difesa, ma determina un aggravio per il sistema processuale e un pregiudizio per la controparte. È stato quindi sancito un principio: l’utilizzo acritico e meccanico dell’IA generativa può integrare gli estremi della colpa grave processuale.
