0,00€

Nessun prodotto nel carrello.

0,00€

Nessun prodotto nel carrello.

TematicheCyber e TechDdl Intelligenza Artificiale: che cosa prevede la prima normativa...

Ddl Intelligenza Artificiale: che cosa prevede la prima normativa italiana in materia?

-

Lo scorso marzo era stata divulgata una minuta del disegno di legge sull’intelligenza artificiale che, se adottato, avrebbe rappresentato la prima normativa italiana in materia. Martedì 23 aprile, il Consiglio dei Ministri ha approvato la bozza, portando così l’Italia a candidarsi tra i primi Paesi a legiferare sul tema. Il disegno di legge si compone di 26 articoli suddivisi in 5 capitoli, che definiscono un quadro normativo dettagliato su diversi aspetti dell’intelligenza artificiale, che vanno dalla ricerca e sviluppo all’adozione e applicazione dei sistemi e dei modelli di AI.

I principi del Ddl

Nei primi articoli sono elencati i principi fondamentali del disegno di legge, che regolamenteranno lo sviluppo e l’implementazione dell’AI in Italia. L’obiettivo è quello di creare un quadro normativo con al centro la correttezza, la responsabilità e la trasparenza, ponendo così la regolamentazione dell’AI ancor più in linea con i principi dell’AI Act, il nuovo regolamento europeo sull’intelligenza artificiale. L’attenzione sul suo utilizzo “antropocentrico” sottolinea l’importanza di mantenere l’uomo al centro del processo decisionale, ed è accompagnata da una vigilanza sui possibili rischi economici e sociali, nonché sull’impatto dell’AI sui diritti fondamentali.

Imprese, lavoro e sanità

In campo economico, l’utilizzo dell’AI è promosso per migliorare l’interazione tra uomo e macchina nei settori produttivi, facilitando anche l’accesso ai dati per imprese e comunità scientifica. Al Ministero del Lavoro è attribuito invece il compito di istituire un Osservatorio per l’elaborazione di una strategia per l’utilizzo dell’AI nel lavoro e nella formazione di lavoratori e datori di lavoro. In ogni caso, sarà vietato il suo impiego a fini discriminatori nei confronti dei lavoratori, che dovranno essere informati circa il suo utilizzo. In ambito sanitario, infine, viene vietato l’utilizzo dell’AI per discriminare l’accesso alle cure.

Governance

Il Ddl introduce una nuova struttura organizzativa dedicata alla supervisione e al controllo dello sviluppo e dell’utilizzo dell’AI nel Paese. Essa è suddivisa tra l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN), identificate come Autorità nazionali per l’intelligenza artificiale e alle quali vengono attribuiti ruoli chiave rispettivamente nello sviluppo e nella sorveglianza e controllo, conformemente all’AI Act europeo. Il coordinamento e monitoraggio dell’attuazione di tale strategia sono invece affidati a un Comitato che avrà sede a Palazzo Chigi.

Nel dettaglio, l’AgID è competente per la promozione dell’innovazione e dello sviluppo dell’intelligenza artificiale, dovendo definire le procedure ed esercitando le funzioni in materia di notifica, valutazione, accreditamento e monitoraggio dei soggetti abilitati alla verifica della conformità dei sistemi di AI alla normativa nazionale ed europea.

L’ACN, invece, detiene responsabilità in materia di vigilanza dei sistemi di AI, ivi incluse le attività ispettive e sanzionatorie, nonché in materia di promozione e sviluppo della stessa in relazione ai profili di cybersicurezza.

Sicurezza, difesa nazionale e attività giudiziaria

Le attività mirate alla sicurezza e cybersicurezza nazionale, nonché quelle svolte per scopi di difesa dalle forze armate e di polizia sono escluse dalla portata del provvedimento. In campo giudiziario, l’utilizzo dei sistemi di AI è previsto esclusivamente per finalità strumentali e di supporto, spettando solo ai magistrati la facoltà di prendere decisioni riguardanti l’interpretazione della legge, l’analisi dei fatti e delle prove, nonché l’emissione di ogni tipo di provvedimento, compresa la sentenza.

Copyright e norma anti-deepfake

Per quanto concerne la tutela del diritto d’autore, il progetto di legge introduce misure volte a favorire la riconoscibilità dei prodotti derivanti dall’utilizzo dell’AI e, inoltre, stabilisce una disciplina specifica per le opere generate mediante l’impiego di sistemi di intelligenza artificiale, garantendo l’identificazione delle stesse e degli altri contenuti il cui utilizzo non sia sottoposto espressamente al rispetto del vincolo d’autore.

Rispetto alle norme penali, spicca la previsione di condanna e reclusione da 1 a 5 anni per chi, utilizzando algoritmi di AI, causi danni ad altri manipolando contenuti audiovisivi volti a trarre in inganno rispetto la loro autenticità e provenienza.

Articoli Correlati

Dimensione subacquea: importanza e vulnerabilità dei cavi sottomarini

La dimensione subacquea rappresenta un ambiente geopolitico di estrema importanza anche se ad oggi rimane in gran parte inesplorato....

L’applicazione del diritto umanitario alle operazioni cyber in guerra 

L’uso delle operazioni cyber nei conflitti armati è oggi una realtà, come dimostrato dal conflitto in Ucraina. In un...

Mediterraneo e Alleanza atlantica. Intervista all’On. Lorenzo Cesa per l’avvio dei lavori GSM

La tragica spirale d’insicurezza e violenza innescata dagli attacchi terroristici del 7 ottobre 2023 ha contribuito a riaccendere nell’opinione...

Minaccia alla sicurezza digitale: Italia e PMI nel mirino degli attacchi hacker

L’Italia appare sempre più nel mirino dei cyber criminali: nel 2023 l’11% degli attacchi informatici di grave entità a...