Generica
Tutto ciò che c’è da sapere sul nuovo quadro legislativo italiano sull’intelligenza artificiale
Ascolta la lettura dell'articolo
L’Italia è recentemente diventata il primo Paese dell’Unione Europea ad approvare una normativa completa che disciplina l’uso dell’intelligenza artificiale (IA). Il governo guidato da Giorgia Meloni ha definito il provvedimento un passo decisivo, destinato a influenzare profondamente il modo in cui l’IA verrà utilizzata nel Paese. L’obiettivo è garantire un utilizzo trasparente, sicuro e responsabile dell’IA, pur continuando a stimolare l’innovazione e la crescita tecnologica.
Un passo che segue l’AI Act europeo
Questa mossa arriva dopo l’approvazione, nel 2024, dell’AI Act dell’Unione Europea – la prima legislazione al mondo a fornire un quadro normativo chiaro per l’intelligenza artificiale. Dopo una maratona negoziale di 37 ore tra gli Stati membri e il Parlamento europeo, è stato raggiunto un accordo che mira a vietare alcune applicazioni dell’IA ritenute troppo rischiose per i diritti dei cittadini.
Il relatore del Parlamento europeo, l’eurodeputato rumeno Dragoș Tudorache, ha spiegato che lo scopo principale era impedire l’uso dell’IA in attività di polizia predittiva, un campo che rischia di sfociare in abusi e discriminazioni. Inoltre, il Parlamento ha vietato l’utilizzo di tecnologie di sorveglianza in tempo reale e di riconoscimento biometrico, consentendole solo in tre casi eccezionali: minaccia imminente di un attentato terroristico, indagini su gravi reati e ricerca di persone scomparse.
Una legge “nell’interesse del pubblico”
Secondo Alessio Butti, sottosegretario alla presidenza del Consiglio per l’innovazione tecnologica e la transizione digitale, la nuova legge italiana intende riportare lo sviluppo dell’intelligenza artificiale “nell’interesse del pubblico”. Butti ha sottolineato che l’IA deve essere orientata alla crescita economica, ma anche alla tutela dei diritti fondamentali e alla piena protezione dei cittadini italiani.
Anche i cittadini possono contribuire attivamente a un uso più sicuro e consapevole della tecnologia. In primo luogo, è possibile limitare la condivisione dei propri dati, disattivando le opzioni che consentono alle piattaforme di IA di utilizzare informazioni personali per l’addestramento dei modelli. Si possono inoltre ridurre i permessi delle app di IA, concedendo solo l’accesso strettamente necessario al loro funzionamento.
Le persone possono anche riflettere su come il proprio uso quotidiano di Internet possa contribuire ai rischi per la sicurezza. Oltre alle basi – come scegliere password forti e uniche o affidarsi solo a sistemi di pagamento sicuri – una delle strategie più efficaci per proteggere i propri dati personali è usare una VPN. Questo strumento cripta il traffico online e protegge le attività digitali da potenziali minacce. È consigliabile utilizzare un servizio affidabile e ben recensito, come ad esempio Surfshark. Anche se le nuove leggi mirano a tutelare i cittadini, resta comunque fondamentale che ognuno adotti ulteriori precauzioni per proteggere la propria sicurezza digitale.
Un “modello italiano” di regolamentazione
Già nel marzo 2024, Giorgia Meloni aveva dichiarato che era necessario definire una “via italiana” all’intelligenza artificiale. La premier ha più volte descritto l’IA come “la più grande rivoluzione del nostro tempo”, ma ha anche insistito sul fatto che tale rivoluzione debba svilupparsi in modo etico, mettendo al centro la persona e i suoi diritti.
I punti principali della nuova legge
- I minori di 14 anni potranno utilizzare strumenti di IA solo con il consenso dei genitori o dei tutori legali.
• Le opere generate con l’aiuto dell’IA saranno protette dal diritto d’autore solo se derivano da un autentico sforzo intellettuale umano.
• L’estrazione di testi e dati mediante IA sarà consentita soltanto su contenuti non protetti da copyright o per fini di ricerca scientifica da parte di istituzioni autorizzate.
• È previsto il carcere da 1 a 5 anni per la diffusione illegale di contenuti generati da IA se tali contenuti causano danni a persone o organizzazioni.
• Sono stabilite pene più severe per chi utilizza l’IA al fine di commettere reati, tra cui furto d’identità e frodi digitali.
• Saranno rafforzati i controlli sull’uso dell’IA nei settori chiave come lavoro, sanità, istruzione, giustizia e sport.
Perché l’intelligenza artificiale preoccupa i governi
Da un lato, l’IA può aumentare la produttività, migliorare i servizi pubblici e rivoluzionare la sanità. Dall’altro, se lasciata senza controllo, può diffondere disinformazione, mettere a rischio la privacy e sostituire posti di lavoro umani. Molti governi temono che l’evoluzione tecnologica proceda più rapidamente della legislazione esistente, creando vuoti etici e di sicurezza.
La nuova legge italiana riflette una crescente consapevolezza: l’IA non può essere lasciata all’autoregolamentazione delle aziende. Serve trasparenza, responsabilità e una visione umanistica dello sviluppo tecnologico. Con regole chiare e limiti definiti, l’Italia spera di prevenire gli abusi e di assicurare che l’intelligenza artificiale resti un alleato del progresso, non una minaccia per la società.



