Prima di riassumere i contenuti presentati nella giornata formativa, intrisa di spunti e riflessioni utili che ci hanno consentito di far luce sulla nuova frontiera degli strumenti informatici basati sull’IA, ringraziamo il Consiglio dell’Ordine degli Avvocati di Lanusei che ci ha dato l’opportunità di ritrovarci in presenza (una volta tanto) per approfondire il fenomeno ad uso e consumo dell’avvocatura e non solo…
Argomenti trattati:
ALGORITMO
L’allenamento di un algoritmo di intelligenza artificiale è un processo complesso, che in sintesi consiste nell'”insegnare” a un modello a svolgere un compito fornendogli grandi quantità di dati e un metodo per imparare dagli errori.
Un Large Language Model (LLM) è un tipo avanzato di intelligenza artificiale addestrato su enormi quantità di dati testuali per comprendere, elaborare e generare linguaggio naturale in modo simile agli esseri umani.
PROCESSO DI ADDESTRAMENTO
Raccolta e Preparazione dei Dati: Il primo passo fondamentale è raccogliere dati di alta qualità e pertinenti al compito che si vuole insegnare alla macchina . Questi dati vengono poi puliti, organizzati e, a seconda del tipo di apprendimento, etichettati.
Scelta del Modello e dell’Algoritmo: Si seleziona l’architettura di algoritmo più adatta al problema (ad esempio, per la classificazione di testi si usano certi tipi di reti neurali, per generare altri testi).
Fase di Apprendimento: L’algoritmo elabora i dati di addestramento, cercando pattern, regole e relazioni. Il tipo di apprendimento può essere:
Supervisionato: L’algoritmo impara da dati “etichettati” (ad esempio, migliaia di sentenze già classificate come “di accoglimento” o “di rigetto”) per poi essere in grado di classificare nuovi casi.
Non supervisionato: L’algoritmo riceve dati senza etichetta e deve trovare da solo strutture nascoste, raggruppandoli per somiglianze.
Per rinforzo: L’algoritmo impara interagendo con un ambiente, ricevendo “ricompense” per le azioni corrette e “penalità” per quelle sbagliate, fino a determinare la strategia ottimale.
Valutazione e Ottimizzazione: Il modello viene testato su nuovi dati non visti in fase di addestramento per valutarne l’accuratezza. In base ai risultati, si modificano i parametri e si ripete il processo per migliorare le performance.
L’IMPORTANZA DEI DATI SPECIALISTICI DI ALTA QUALITA’
Oltre i testi pubblici: I modelli legali non si addestrano solo su testi giuridici pubblici (leggi, sentenze), ma necessitano di dati proprietari che codificano i passaggi del ragionamento giuridico professionale. L’obiettivo è insegnare alla macchina non solo cosa dice la legge, ma come la interpreta un avvocato esperto.
Dataset per compiti specifici: Per creare un assistente legale, i ricercatori costruiscono dataset ad hoc. Un esempio è l’analisi delle domande degli utenti da community legali online per classificare le loro intenzioni (es. “richiesta di risarcimento”, “consulenza su separazione”) e addestrare il modello a riconoscere e gestire correttamente queste richieste.
La sfida della “giustizia predittiva”:Iniziative come quella della Scuola Superiore Sant’Anna mirano a creare piattaforme che, addestrate su archivi di sentenze (resa possibile dalla collaborazione con i tribunali di Genova e Pisa), possano aiutare a prevedere i possibili esiti di una causa, rendendo la giurisprudenza più accessibile e navigabile semanticamente.
TECNICHE DI OTTIMIZZAZIONE PER IL DOMINIO LEGALE
Fine-tuning (Messa a punto): Spesso si parte da un modello linguistico di grandi dimensioni (LLM) già addestrato su enormi quantità di testo generale. Questo modello viene poi “perfezionato” (fine-tuning) con i dati legali specialistici, per affinarlo nel linguaggio e nel ragionamento giuridico.
Valutazione Avanzata: Testare un modello legale richiede metodi sofisticati. Ad esempio, si possono usare sentenze in cui i giudici citano precedenti, e valutare se l’IA è in grado di identificare il precedente corretto anche quando vengono rimossi indizi testuali espliciti come “cfr.” o “contra”. Questo verifica una vera comprensione, non un semplice «pattern matching».
BIAS
In termini generali, un bias è una tendenza sistematica a preferire un’idea, una persona, un gruppo o un risultato rispetto a un altro, tanto da risultare “ingiusto” o “non obiettivo”. È come un “errore sistematico” nel nostro modo di pensare, ragionare o nei sistemi che costruiamo.
Es.: una bilancia che non è tarata correttamente!
Il bias funziona in modo simile: distorce la nostra percezione della realtà o i risultati di un processo, portandoci a conclusioni errate o a decisioni inique.
I bias non sono sempre negativi o intenzionali. Spesso sono il risultato di scorciatoie mentali (euristiche) che il nostro cervello usa per semplificare l’elaborazione delle informazioni in un mondo complesso.
Bias Cognitivi: Come ci Inganna il Cervello
I bias cognitivi sono schemi di pensiero sistematici e prevedibili che si discostano dalla razionalità. Sono “scorciatoie” che il nostro cervello prende, basate su esperienze passate, emozioni o credenze, che ci portano a giudizi e decisioni imperfette.
Sono studiati nell’ambito della psicologia cognitiva e delle scienze comportamentali. Ne esistono centinaia, ma ecco alcuni dei più comuni e influenti:
Bias di Conferma: È la tendenza a cercare, interpretare, favorire e ricordare le informazioni che confermano le proprie convinzioni o ipotesi preesistenti, dando meno peso a quelle che le contraddicono.
Euristica della Disponibilità: È la tendenza a sovrastimare la probabilità di eventi facilmente richiamabili alla memoria, spesso perché sono recenti, emotivamente carichi o ampiamente riportati dai media (es.: aereo).
Effetto Ancoraggio: È la tendenza a fare affidamento troppo sulla prima informazione ricevuta (l’ “ancora”) quando si prendono decisioni (es.: prezzo).
Bias di Retrospettiva (o “Sapevo tutto io”): È la tendenza a vedere gli eventi passati come più prevedibili di quanto non fossero realmente prima che accadessero (es.: squadra).
Bias nei Sistemi di Intelligenza Artificiale (AI)
I bias nell’AI: si verificano quando un sistema di intelligenza artificiale produce risultati sistematicamente distorti che riflettono e spesso amplificano pregiudizi umani, disuguaglianze sociali o visioni del mondo errate. L’origine del bias è quasi sempre nei dati usati per addestrare l’algoritmo o nel modo in cui l’algoritmo stesso è progettato.
Bias nei Dati di Addestramento: è la causa più comune. Se l’AI impara da dati storici che contengono pregiudizi, li imparerà e li replicherà (es.: assunzioni uomini/donne . Riconoscimento facciale, pelle scura).
Bias Algoritmico: Può derivare dalle scelte dei programmatori su come l’algoritmo impara o su quali obiettivi ottimizzare (es.: tempo sui social, estremizzazione contenuti).
Le conseguenze dei bias nell’AI sono serie e vanno dalla discriminazione automatizzata (es. nel credito, nelle assicurazioni) alla creazione di circuiti viziosi che rafforzano le disuguaglianze sociali esistenti. In sintesi, il bias è un concetto multiforme che descrive una distorsione sistematica dalla “realtà oggettiva” o dell’ “equità”, che può manifestarsi nella mente umana, nelle interazioni sociali e persino nelle macchine che creiamo. Riconoscerlo è il primo passo per correggere la rotta.
Sviluppo del bias nelle piattaforme AI dedicate al diritto e utilizzate negli studi legali
L’idea che l’algoritmo sia uno strumento neutrale è una pericolosa semplificazione: nella realtà, i sistemi di AI imparano da dati prodotti da esseri umani e da processi sociali intrisi di disuguaglianze, rischiando di replicarle e amplificarle .
L’Origine del Bias: Dati Storici e Diseguaglianze Sistemiche
La fonte primaria del bias risiede nei dati di addestramento. Un sistema di AI, per funzionare, deve essere allenato su enormi quantità di dati, che nel contesto legale sono solitamente decisioni giudiziarie passate, atti, e documenti legali. Se questi dati storici contengono pregiudizi, l’AI li imparerà come se fossero la norma.
Un esempio paradigmatico è il caso del software COMPAS, utilizzato negli Stati Uniti per valutare il rischio di recidiva degli imputati.
Un’inchiesta del 2016 di ProPublica ha rivelato che l’algoritmo era sistematicamente distorto: rispetto a imputati bianchi con lo stesso profilo, gli imputati afroamericani venivano classificati come ad alto rischio di recidiva con una frequenza quasi doppia. L’AI non faceva altro che apprendere e codificare i pregiudizi razziali presenti nelle statistiche criminali e nelle decisioni giudiziarie del passato.
Ergo: anche se un modello rispecchia accuratamente pattern reali, può comunque “rafforzare discriminazioni strutturali” . L’AI, in questo senso, agisce come uno specchio che restituisce e cristallizza le ingiustizie esistenti, conferendo loro una patina di oggettività matematica.
Bias Subdoli: Le “Proxy” e le Variabili Nascoste
Il problema diventa ancora più insidioso quando i progettisti cercano di rimuovere consapevolmente il bias. Anche se si evitano esplicitamente caratteristiche protette come la razza o il genere, l’AI può comunque discriminare attraverso le cosiddette “proxy” (variabili sostitutive).
Un algoritmo può imparare a inferire la razza di una persona da altri dati, come il codice postale di residenza (che spesso riflette segregazione razziale), il reddito, o persino il linguaggio utilizzato in un documento. In questo modo, la discriminazione viene “reintrodotta dalla finestra” dopo essere stata cacciata dalla porta. L’opacità tecnologica rende queste dinamiche difficili da individuare e contrastare.
•A ciò si aggiunge la complessità delle variabili nascoste. Un sistema di AI potrebbe basare le sue decisioni su fattori impercettibili all’occhio umano, come il tono della voce o il linguaggio del corpo, quando questi vengono in qualche modo codificati in dati testuali o multimediali. Quando non sappiamo come vengono prese le decisioni, “gli strati di bias si moltiplicano”.
Bias di Progettazione e di Contesto
Il bias non deriva solo dai dati, ma anche dalle scelte di chi progetta l’algoritmo.
Scelta degli Obiettivi: L’obiettivo che si dà all’AI (ad esempio, “ridurre la recidiva”) può essere di per sé distorto o può entrare in conflitto con altri valori fondamentali come l’equità. Un sistema ottimizzato solo per la predizione potrebbe sacrificare l’accuratezza per un gruppo sociale a vantaggio di un altro.
Effetto Ancoraggio sul Giudice Umano: In ambito giudiziale, l’AI è spesso utilizzata come strumento di supporto. Tuttavia, esiste il rischio concreto del bias di ancoraggio, per cui il giudice umano potrebbe fare eccessivo affidamento sul suggerimento dell’algoritmo, delegando di fatto a esso la propria decisione . Se il giudice si fida ciecamente di un output distorto, il bias viene “certificato” e reso esecutivo.
Opacità e Segreto Industriale: Spesso, gli algoritmi utilizzati sono proprietari e il loro funzionamento è protetto da segreto industriale (il cosiddetto “black box” ) . Questo rende impossibile per un avvocato o un imputato comprendere e contestare come è stato calcolato un punteggio di rischio, violando di fatto il principio della parità delle armi nel processo a detrimento del diritto di difesa.
Confronto con il Giudice Umano. Uno studio ha evidenziato come la psicologia della decisione giudiziale abbia da tempo messo in luce la presenza pervasiva di bias e “rumore” (variabilità casuale) nelle sentenze dei giudici .
Alcuni autori, come Ombretta Di Giovine (Consigliere della VI sezione della Corte di Cassazione), suggeriscono che un’AI ben programmata potrebbe addirittura formulare prognosi di recidivanza con meno pregiudizi rispetto a un giudice umano, basandosi su ragioni statistiche più solide . La sfida, quindi, non è tanto quella di creare una macchina perfettamente neutrale (un obiettivo irraggiungibile), ma di progettare sistemi che siano consapevoli dei propri limiti, trasparenti e sottoposti a un controllo umano significativo.

Quali Soluzioni? Verso un’AI Legale più Equa?
L’AI Act europeo rappresenta un tentativo fondamentale di classificare i sistemi di AI in base al rischio, imponendo obblighi più stringenti di trasparenza, robustezza e controllo umano per quelli utilizzati in ambiti sensibili come la giustizia.
Si parla della necessità di “trasparenza algoritmica” , “audit trail” (percorsi di controllo) e “sandbox giudiziarie” per testare i sistemi prima della loro implementazione.
Dati di qualità e rappresentativi di tutta la società.
Metriche di equità (fairness) per validare i modelli.
Accesso simmetrico alle informazioni per tutte le parti in causa.
TRATTAMENTO DATI
Se i bias rappresentano il rischio di distorsione dell’output, il trattamento dei dati è il terreno su cui si gioca la partita della privacy, della sicurezza e della stessa legittimità di questi strumenti…
Il Processo di “Lettura” e i Rischi per i Dati Sensibili
Quando un sistema di IA analizza un atto giudiziario (civile o penale), non si limita a leggerlo come farebbe un umano. Il suo funzionamento si basa sull’estrazione, la correlazione e la rielaborazione dei dati, un processo che solleva criticità profonde.
Estrazione e Correlazione: La Generazione di Nuovi Dati
I sistemi di IA non si limitano a catalogare le informazioni esplicitamente presenti in un documento (es. “imputato: Mario Rossi”, “reato: furto”). La loro potenza sta nella capacità di cercare correlazioni e generare nuovi dati a partire da quelli esistenti.
Il Rischio: Questa capacità può portare alla creazione di informazioni sensibili implicite.
Ad esempio, incrociando dati come il quartiere di residenza, la professione e alcune spese rilevate da un atto, l’IA potrebbe profilare l’individuo, inferendo il suo stile di vita, le sue abitudini o persino le sue opinioni politiche, senza che questi dati fossero mai stati inseriti esplicitamente nel sistema.
Questo processo di profilazione, se non governato, collide con i principi di minimizzazione e limitazione della finalità del trattamento dei dati.
La Questione della Titolarità e dei Trasferimenti Internazionali
Un nodo cruciale riguarda la destinazione fisica dei dati immessi. Le raccomandazioni del Consiglio Superiore della Magistratura (CSM) sono esplicite nel segnalare il pericolo: i dati immessi in sistemi di IA, specialmente se si tratta di servizi generalisti accessibili via cloud, possono essere trasmessi in modo automatico e predefinito a fornitori terzi e registrati su server di aziende extra UE.
Il Rischio: questo trasferimento comporta potenziali violazioni della riservatezza e il rischio che i dati vengano riutilizzati per finalità non previste, come il miglioramento di modelli commerciali o, in scenari estremi, l’accesso da parte di autorità di paesi terzi con legislazioni sulla privacy meno garantiste.
Ecco perché il CSM vieta tassativamente l’immissione di atti processuali o dati sensibili in sistemi non interni al “dominio giustizia” e non autorizzati dal Ministero.
Il Problema della Conservazione e della Tracciabilità
I sistemi di IA, per loro natura, utilizzano le informazioni già acquisite e possono definitivamente acquisire quelle immesse. Ciò significa che un dato inserito in un sistema per un’analisi specifica potrebbe finire per diventare parte permanente del modello di apprendimento, con il rischio di riemergere in contesti del tutto diversi.
Il Rischio: Si pone quindi il problema della conservazione a lungo termine, della tracciabilità di ogni utilizzo e della possibilità di “oblio” dei dati.
È per questo che il CSM richiede un tracciamento rigoroso degli utilizzi e la possibilità di effettuare «audit» completi sui sistemi.
Il Quadro Normativo: AI Act e GDPR come Baluardi
L’AI Act: La Classificazione del Rischio e i Sistemi ad Alto Rischio
L’AI Act (Regolamento UE 2024/1689) rappresenta il primo corpus organico di norme sull’IA al mondo e adotta un approccio basato sul rischio . Per il settore giustizia, la conseguenza è immediata:
Sistemi ad Alto Rischio: I sistemi di IA destinati ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto su casi concreti sono classificati come ad alto rischio .
Questo significa che non potranno essere utilizzati liberamente, ma dovranno rispettare una serie di obblighi rigorosi prima di poter ottenere il marchio CE e essere immessi sul mercato.
Obblighi:
•Un sistema di gestione del rischio continuo.
•L’uso di dataset di addestramento, validazione e test che siano rappresentativi, privi di errori e completi (c.d. “data governance”).
•La creazione di una documentazione tecnica dettagliata e di registri automatici (log) per garantire la tracciabilità e la possibilità di audit.
•La progettazione di un sistema di supervisione umana efficace, che permetta a chi usa lo strumento (il magistrato) di comprendere l’output e, se necessario, di disattenderlo o annullarlo.
Il Ruolo del GDPR e il “Diritto a una Spiegazione”
Parallelamente all’AI Act, il GDPR (Regolamento Generale sulla Protezione dei Dati) continua a svolgere un ruolo fondamentale. In particolare:
Decisioni Automatizzate (Art. 22): l’articolo 22 del GDPR sancisce il diritto della persona a non essere sottoposta a una decisione basata unicamente sul trattamento automatizzato che produca effetti giuridici che la riguardano. Nel contesto giudiziario, questo principio è ribadito con forza: l’IA può e deve essere solo un supporto, mai un sostituto della decisione umana del giudice.
Diritto a una Spiegazione: la dottrina e la giurisprudenza, anche alla luce dell’AI Act, stanno evolvendo verso l’interpretazione che l’individuo ha il diritto di ottenere una spiegazione chiara e significativa sul ruolo del sistema di IA nel processo decisionale che lo ha coinvolto.
La posizione italiana: le raccomandazioni del CSM e la Legge nazionale
L’Italia, attraverso il CSM e il Parlamento, ha già iniziato a tracciare il perimetro di un utilizzo garantito dell’IA nella giustizia, in attesa della piena applicazione dell’AI Act.
Le Raccomandazioni del CSM dell’8 ottobre 2025 sono il documento cardine. Stabiliscono principi fondamentali che rispondono direttamente ai rischi sul trattamento dei dati:
Supremazia e controllo umano: L’IA è ammessa solo come supporto, mai come sostituto. La decisione è e resta umana.
Verifica umana sistematica: Ogni output deve essere verificato dall’uomo, che ne è l’unico responsabile.
Trasparenza e contestabilità: Deve essere sempre possibile comprendere come è stato generato un output e, di conseguenza, contestarlo.
Ambienti protetti e autorizzati: È vietato l’uso di IA generaliste non autorizzate. Fino all’entrata a regime dell’AI Act, sono ammessi solo strumenti forniti dal Ministero in ambiente protetto e tracciato per attività organizzative e preparatorie.
Anonimizzazione: Diventa cruciale il tema dell’anonimizzazione dei provvedimenti giudiziari prima che possano essere inseriti in banche dati utilizzate per l’addestramento di modelli di IA, per evitare che informazioni personali possano essere esposte o re-identificate.

Problematiche Principali nel Trattamento dei Dati negli Applicativi di IA
La Sfida dell’Anonimizzazione e della “Rigurgitazione” dei Dati
Un modello di IA, specialmente se complesso come un Large Language Model (LLM), può memorizzare involontariamente dati personali presenti nel set di addestramento. Il problema sorge quando, attraverso interrogazioni specifiche (prompt), il modello “rigurgita” questi dati, violando la privacy delle persone interessate. Dimostrare che un modello è veramente anonimo è complesso e richiede una valutazione caso per caso.
La Base Giuridica e il Riutilizzo dei Dati (Web Scraping)
Su quale base legale ci si può basare per raccogliere enormi quantità di dati, spesso tramite web scraping da internet, per addestrare un modello? L’interesse legittimo è una possibilità, ma richiede un rigoroso bilanciamento con i diritti degli interessati . Il riutilizzo di dati raccolti per altre finalità è possibile solo se compatibile con lo scopo originario e se i dati non sono stati raccolti illecitamente.
I modelli di “deep learning”
I modelli di deep learning sono spesso delle “scatole nere”: è difficile, anche per i loro stessi creatori, spiegare esattamente perché abbiano prodotto un determinato output. Questo confligge con il principio di trasparenza del GDPR e con il diritto dell’interessato a ricevere informazioni significative sulla logica utilizzata nelle decisioni automatizzate . L’AI Act richiede che i sistemi ad alto rischio siano progettati per garantire una spiegabilità adeguata al contesto.
Bias Discriminatori e Diritti Fondamentali
Se i dati di addestramento contengono pregiudizi storici o sociali (bias), l’IA li imparerà e li amplificherà, producendo output discriminatori, ad esempio in ambito lavorativo o di accesso al credito. Questo viola il principio di equità sancito dal GDPR e dall’AI Act, che richiede una valutazione d’impatto sui diritti fondamentali per i sistemi ad alto rischio.
Diritto all’oblio
Come si esercita il diritto alla cancellazione (“diritto all’oblio”) su un modello di IA? Rimuovere un dato specifico da un modello complesso non è semplice come cancellare una riga in un database. Può richiedere il re-training dell’intero modello, un’operazione costosa e complessa.
Principio di minimizzazione
L’approccio tradizionale dell’IA, specialmente del deep learning, è “più dati sono, meglio è”. Questo contrasta con il principio di minimizzazione del GDPR, che impone di trattare solo i dati adeguati, pertinenti e limitati a quanto necessario rispetto alla finalità.
ANONIMIZZAZIONE DEI DATI
Anonimizzazione: è un processo irreversibile che trasforma i dati personali in modo tale che l’interessato non possa più essere identificato, né direttamente né indirettamente . Una volta anonimizzati, i dati escono dal perimetro di applicazione del GDPR . L’obiettivo è rendere impossibile, con ogni sforzo ragionevolmente utilizzabile, risalire all’individuo.
Pseudonimizzazione: è un trattamento reversibile che sostituisce i dati identificativi con uno pseudonimo (es. un codice) . Le informazioni aggiuntive che permettono di ri-collegare lo pseudonimo all’identità originale devono essere conservate separatamente e con misure di sicurezza rafforzate. I dati pseudonimizzati rimangono dati personali a tutti gli effetti e sono quindi soggetti al GDPR.
La scelta tra le due dipende dalla finalità:
- se è necessario conservare la possibilità di re-identificare l’interessato (ad esempio, per aggiornare una cartella clinica), si userà la pseudonimizzazione;
- se lo scopo è l’analisi statistica o l’addestramento di modelli di IA dove l’identità è irrilevante, si punterà all’anonimizzazione.
Tecniche di Oscuramento e Mascheramento
Oscuramento (Redaction/Suppression): Consiste nella rimozione o cancellazione pura e semplice dei dati identificativi. In un documento, significa “annerire” o cancellare completamente nomi, cognomi, indirizzi, numeri di telefono, ecc. . L’Ordine degli Avvocati di Milano sconsiglia vivamente l’uso di metodi manuali come il “pennarello nero” o il bianchetto perché non garantiscono una sicurezza adeguata e possono essere rimossi digitalmente . Meglio usare software specifici
Mascheramento (Masking): Sostituisce i dati sensibili con altri caratteri, spesso mantenendo il formato. Un esempio classico è la sostituzione di un numero di carta di credito con **** **** **** 1234 . Si lascia vedere solo una parte dell’informazione, ritenuta non identificativa.
Crittografia: Sostituisce i dati originali con stringhe di testo cifrato. A seconda dell’algoritmo e della gestione delle chiavi, può essere un metodo di pseudonimizzazione (se reversibile con una chiave) o contribuire all’anonimizzazione in combinazione con altre tecniche.
Tecniche di Generalizzazione e Aggregazione
Generalizzazione (o soppressione): Consiste nel rendere un dato meno preciso, spostandolo su una categoria più ampia. Invece di riportare l’età esatta “45 anni”, si usa una fascia di età come “40-50 anni”. Invece di un indirizzo preciso “Via Roma 10, Milano”, si indica solo il quartiere o la città.
Bucket (o raggruppamento): È una forma di generalizzazione applicata a dati continui. Come nell’esempio dell’età, si creano dei “secchi” (bucket) in cui far cadere i valori.
Aggregazione: Si forniscono solo dati statistici di gruppo, perdendo completamente l’informazione individuale. Ad esempio, “il reddito medio dei residenti in questa zona è di 35.000€” invece di elencare i redditi di ogni singolo residente.
Tecniche di Perturbazione e Generazione di Dati Nuovi
Randomizzazione: I dati vengono alterati introducendo modifiche casuali. Ad esempio, si può aggiungere un piccolo numero casuale all’età di ogni persona (45 anni potrebbe diventare 47). L’obiettivo è rompere il legame esatto tra il dato e l’individuo, preservando al contempo le tendenze statistiche generali del dataset.
Differenziale (Differential Privacy): È una tecnica matematica avanzata che aggiunge una quantità calibrata di “rumore” ai risultati di query su un database. In questo modo, si possono ottenere informazioni statistiche utili sull’intero dataset senza rivelare informazioni su nessun individuo in particolare. È considerata uno standard elevato per la protezione della privacy.
Dati Sintetici: Invece di modificare i dati reali, si creano dataset completamente nuovi e artificiali che imitano le proprietà statistiche e le correlazioni dei dati originali. I dati sintetici non corrispondono a nessuna persona reale, azzerando di fatto i rischi per la privacy. Sono particolarmente utili per testare software o addestrare modelli di IA.
FOCUS SUL CONTESTO GIUDIZIARIO: COSA E COME ANONIMIZZARE
Dati da anonimizzare: Devono essere resi irriconoscibili i dati personali delle parti e dei terzi (ad esempio, i testimoni). Anche il numero di ruolo della causa va anonimizzato, in quanto potrebbe consentire di risalire alle persone coinvolte.
Dati da lasciare in chiaro: Possono rimanere visibili i dati personali dei magistrati e dei consulenti tecnici (d’ufficio o di parte), poiché la loro identificazione non lede la privacy delle parti in causa. Devono rimanere in chiaro anche i dati dell’avvocato che presenta l’istanza.
Metodologia consigliata: Per operare queste trasformazioni, si consiglia l’uso di software specifici dotati di OCR (riconoscimento ottico dei caratteri) per gestire documenti scannerizzati, che applichino tecniche di data masking ottimizzate e producano output in formati standard come il PDF.
IMPLICAZIONI DEONTOLOGICHE
Analisi del quadro normativo: Legge del 23 settembre 2025 n. 132.
Utilizzo dell’IA da parte di un Giudice per la decisione sull’interpretazione e applicazione della legge.
Ambito giudiziario l’utilizzo dell’IA per lo svolgimento di compiti di Cancelleria e attività amministrativa.
Obbligo di informativa da parte dell’Avvocato al proprio assistito sull’utilizzo di un sistema di IA nell’espletamento dell’incarico professionale ricevuto.
Può essere considerata deontologicamente corretta la condotta di un Avvocato che, per impostare l’attività giudiziale di difesa del proprio assistito, si affida e utilizza una risposta frutto dell’IA senza effettuare adeguato controllo e verifica critica? Segue dibattito…
GIURIMATRIX
Giurimatrix rappresenta un caso di studio emblematico nel panorama delle legal tech italiane, non solo per la sua tecnologia, ma per la chiara e radicale visione filosofico-giuridica su cui è fondata.
Collocarla nel panorama finora descritto significa analizzare come questa visione ne determini il posizionamento, distinguendola nettamente da altri strumenti.
L’abbiamo confrontata con Lexroom.ai e Simpliciter.ai

Analisi Dettagliata del Posizionamento di Giurimatrix
Il posizionamento unico di Giurimatrix emerge dalla sua matrice culturale. Come spiega l’avv. Luigi Viola, il nome stesso è un programma: “Ius” (diritto) e “Matrix” (matrice), a significare la “matrice del diritto”. Il sistema è esplicitamente orientato al Civil Law, in conformità con la Costituzione italiana (art. 101, comma 2) e con l’articolo 12 delle preleggi, che disciplina l’interpretazione della legge.
Mentre altre piattaforme come Simpliciter.ai potenziano la ricerca giurisprudenziale e Lexroom.ai si concentra su verticali tematici per l’efficienza negli studi, Giurimatrix adotta un approccio opposto: la legge è la fonte esclusiva della risposta. La giurisprudenza e la dottrina non sono il punto di arrivo, ma vengono utilizzate solo come “mezzi per trovare la risposta” nella norma.
In un’audizione alla Camera, il prof. Michele Filippelli, ideatore del progetto, ha ribadito questo concetto: il sistema elabora un ragionamento basato sulla logica del principio di interpretazione della legge, ex art. 12 preleggi.
L’Architettura Tecnologica: Un Ibrido “Logicamente Addestrato”
Addestramento Umano Specialistico: Il cuore del sistema è il “lawyer training”. Un pool di giuristi, guidato dalla professoressa Lucilla Gatt dell’Università Suor Orsola Benincasa per il settore civile , ha addestrato il modello. Questo processo, definito “reinforcing learning from human feedback” , è la chiave per insegnare alla macchina non solo i contenuti, ma il metodo giuridico.
Capacità Deduttiva e RAG: Il sistema non si limita a cercare parole chiave. Come spiegato in un’analisi tecnica, Giurimatrix incorpora elementi di un sistema esperto basato sulla logica deduttiva .
Utilizza la legge come base di conoscenza e un motore inferenziale per applicare le regole al caso concreto.
Il sistema si è evoluto integrando tecniche di RAG (Retrieval Augmented Generation) , che permettono di “recuperare” i dati normativi più pertinenti prima di generare la risposta, aumentando l’accuratezza e riducendo le allucinazioni.
L’Obiettivo: Oltre l’Efficienza, la Funzione Sociale
Mentre molte legal tech promettono ai professionisti di “risparmiare tempo” e “aumentare la produttività” , Giurimatrix ambisce a un impatto più ampio, quasi “costituzionale”.
Riduzione del contenzioso: Fornendo ai cittadini e ai professionisti uno strumento gratuito in grado di chiarire con precisione cosa dice la legge, l’obiettivo è ridurre le liti inutili, offrendo una base certa e condivisa
Supporto alla decisione, non sostituzione: I fondatori sono categorici nel respingere lo spettro del “giudice-robot”.
Giurimatrix è concepito per potenziare il giurista, non per sostituirlo.
La Redazione




