L’intelligenza artificiale (IA) ha fatto enormi progressi negli ultimi anni, trasformando molti settori della nostra vita. Tuttavia, con l’aumento dell’uso dell’IA, sorgono anche preoccupazioni legate alla trasparenza, alla responsabilitĂ e all’etica.
Per affrontare queste sfide, il 13 marzo 2024, il Parlamento europeo, riunito in assemblea plenaria, ha approvato il Regolamento sull’IA per promuovere l’innovazione ma garantire la sicurezza e il rispetto dei diritti fondamentali, confermandosi un punto di riferimento per la regolazione dell’economia digitale, come era già accaduto con l’introduzione del Regolamento generale per la protezione dei dati Digital Markets Act e il Digital Services Act (GDPR).
Questa legge rappresenta il primo testo giuridico in assoluto sull’IA in tutto il mondo ed affonda le radici in un progetto presentato nell’aprile 2021 dalla Commissione europea. L’obiettivo principale delle nuove norme è garantire il rispetto dei diritti fondamentali, la sicurezza e i principi etici.
Una delle caratteristiche principali alla base della nuova legge europea è la distinzione tra i modelli di intelligenza artificiale ad “uso generale” che dovranno rispettare le regole europee sul diritto d’autore e quelli “ad alto rischio” che dovranno rispettare requisiti più severi in quanto sono adoperati nel mondo dell’istruzione, nelle risorse umane e nell’ambito della sicurezza pubblica.
In questo articolo, cercheremo di esplorare quali sono i punti chiave di questa legge e le sue implicazioni per il futuro dell’innovazione tecnologica in Europa.
Per prima cosa va detto che il Regolamento in realtĂ deve ancora essere ancora formalmente approvato dal Consiglio da una apposita commissione di giuristi e linguisti. In seguito a tale approvazione esso potrĂ essere definitivamente adottato entro venti giorni dalla pubblicazione nella Gazzetta ufficiale dell’UE e inizierĂ ad applicarsi ventiquattro mesi dopo l’entrata in vigore, nove mesi dopo i codici di buone pratiche, dodici mesi dopo la governance, trentasei mesi dopo gli obblighi per i sistemi ad alto rischio.
La nuova legge avrĂ innanzitutto un impatto significativo sull’innovazione tecnologica in Europa perchĂ© se è vero che da un lato, potrebbe creare una maggiore certezza normativa per le aziende, incoraggiando l’adozione dell’IA in settori come la sanitĂ , l’agricoltura e l’energia, dall’altro è anche vero che tali norme  potrebbero imporre restrizioni e vincoli alle aziende che sviluppano e utilizzano l’IA, al fine di proteggere i diritti dei cittadini e prevenire abusi, limitando fortemente la spinta all’innovazione delle sturt-up.
I principi fondamentali della legge sono: sicurezza, rispetto dei diritti fondamentali e trasparenza. Questi principi sono stati sviluppati per proteggere i cittadini europei e garantire che l’IA sia utilizzata in modo responsabile e conforme ai valori europei. La legge richiede che i sistemi siano sicuri e privi di rischi per la salute, la sicurezza e i diritti delle persone.
Le aziende saranno tenute a garantire che i loro algoritmi siano testati accuratamente e che i rischi potenziali siano valutati in modo adeguato. Saranno inoltre imposte norme specifiche per le applicazioni ad alto rischio, come l’IA utilizzata nei settori dei trasporti, della sanitĂ e della sicurezza oppure per discriminare le persone in base alla loro razza, genere, religione o altre caratteristiche protette dalla legge.
Con i suoi principi fondamentali di sicurezza, rispetto dei diritti fondamentali e trasparenza, mira a garantire che l’IA sia utilizzata in modo responsabile e conforme ai valori europei.
Sebbene possa comportare sfide e restrizioni per le aziende, potrebbe anche creare opportunitĂ per l’Europa di diventare un leader nell’innovazione tecnologica etica. In tal senso, infatti, sarĂ fondamentale trovare un equilibrio tra la promozione dell’innovazione e la tutela dei diritti dei cittadini, al fine di garantire che l’IA continui a contribuire al benessere della societĂ nel rispetto dei valori fondamentali.
La nuova legge europea sull’IA rappresenta un importante passo avanti nella regolamentazione delle tecnologie emergenti e nel garantire che l’innovazione avvenga nel rispetto dei valori fondamentali della societĂ .
Tuttavia, resta da vedere come verrĂ attuata nella pratica e quali saranno i suoi effetti a lungo termine sul settore tecnologico e sulla societĂ nel suo insieme. In un mondo sempre piĂą guidato dall’IA, trovare un equilibrio tra innovazione e responsabilitĂ sarĂ una sfida cruciale per tutte le nazioni e organizzazioni.
Nonostante gli obiettivi nobili della legge ci sono anche preoccupazioni e critiche: per esempio alcuni sostengono che la legislazione potrebbe soffocare l’innovazione e la competitivitĂ , imponendo oneri eccessivi sulle imprese. Altri vedono la legge come un’opportunitĂ per l’Europa di diventare un leader mondiale nella promozione di un’IA etica e responsabile. Inoltre, la legge potrebbe stimolare lo sviluppo di tecnologie alternative, come l’IA basata sulle conoscenze umane anzichĂ© sui dati personali sensibili.