L’uso dell’intelligenza artificiale (AI) nel settore legale sta sollevando questioni critiche riguardo alla sua affidabilità e alle responsabilità professionali degli avvocati.
Recentemente, il Tribunale di Firenze ha emesso un’ordinanza che evidenzia i rischi legati all’uso improprio di strumenti di IA come ChatGPT nella ricerca giurisprudenziale. Il caso in questione riguarda un avvocato che, in un atto difensivo, ha citato una sentenza inesistente generata da ChatGPT. Secondo l’ordinanza del 14 marzo 2025, il difensore ha dichiarato che una collaboratrice dello studio legale ha utilizzato ChatGPT per effettuare ricerche giurisprudenziali, senza che lui ne fosse a conoscenza. L’IA ha prodotto risultati errati, noti come “allucinazioni”, ovvero informazioni false presentate come veritiere. Il tribunale ha sottolineato il disvalore dell’omessa verifica dell’esistenza delle sentenze citate, ma ha ritenuto che non vi fosse malafede da parte del difensore, escludendo l’applicabilità dell’articolo 96 del codice di procedura civile, che prevede sanzioni per lite temeraria.
Questo episodio non è isolato. Negli Stati Uniti, casi simili hanno attirato l’attenzione dei media e delle autorità giudiziarie. Nel 2023, l’avvocato Steven Schwartz dello studio Levidow, Levidow & Oberman ha presentato in tribunale citazioni di sentenze inesistenti generate da ChatGPT. Il giudice distrettuale P. Kevin Castel ha imposto una multa di 5.000 dollari agli avvocati coinvolti, sottolineando che, sebbene l’uso di strumenti di IA non sia intrinsecamente improprio, gli avvocati hanno la responsabilità di garantire l’accuratezza delle loro presentazioni.
Un altro caso ha coinvolto Michael Cohen, ex avvocato personale di Donald Trump, che ha ammesso di aver fornito al suo legale, David M. Schwartz, citazioni legali inesistenti generate da Google Bard, un altro strumento di IA. Queste citazioni sono state incluse in una mozione per terminare anticipatamente la sua libertà vigilata. Il giudice Jesse Furman ha evidenziato l’errore, e sebbene lo abbia definito “imbarazzante” e “negligente”, ha deciso di non imporre sanzioni, ritenendo che non ci fosse malafede.
Questi episodi mettono in luce i pericoli dell’affidarsi ciecamente all’IA per la ricerca legale. Le “allucinazioni” dell’IA possono portare a gravi errori professionali e a conseguenze legali. Per affrontare queste sfide, l’Ordine degli Avvocati di Milano ha introdotto la Carta dei Principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense. Questo documento sottolinea l’importanza della competenza nell’uso dell’IA, la centralità della decisione umana e la necessità di una supervisione attiva dei risultati prodotti dall’IA. In particolare, la carta afferma che gli avvocati devono comprendere le funzionalità e i limiti dei sistemi di IA utilizzati, evitando una dipendenza dai risultati automatizzati e garantendo che ogni risultato sia sottoposto a un esame umano per verificarne l’accuratezza e la conformità ai principi etici e legali.
Inoltre, il disegno di legge recentemente approvato dal Senato italiano in materia di intelligenza artificiale prevede che l’uso di sistemi di IA nelle professioni intellettuali sia finalizzato esclusivamente ad attività strumentali e di supporto, con prevalenza del lavoro intellettuale umano. Questo implica che, sebbene l’IA possa essere utilizzata come strumento ausiliario, la responsabilità finale rimane dell’avvocato, che deve garantire l’accuratezza e l’affidabilità delle informazioni presentate.
La formazione continua e l’alfabetizzazione digitale sono fondamentali per permettere ai professionisti legali di utilizzare l’IA in modo efficace e responsabile. Progetti come HOROS, lanciato dall’Ordine degli Avvocati di Milano, mirano a fornire linee guida e formazione per un uso consapevole dell’IA nel settore legale, promuovendo un equilibrio tra innovazione tecnologica e rispetto dei principi etici e deontologici della professione.
In conclusione, mentre l’intelligenza artificiale offre strumenti potenti che possono migliorare l’efficienza nel settore legale, è essenziale che gli avvocati mantengano un ruolo attivo e critico nel loro utilizzo. La verifica accurata delle informazioni, la comprensione dei limiti dell’IA e l’adesione ai principi etici sono imprescindibili per garantire che la tecnologia sia un alleato nella pratica legale, piuttosto che una fonte di rischi e responsabilità.
Fonte articolo: Altalex
Leggi altri articoli su tecnologia e innovazione su quasimezzogiorno.com qui.