Il 2 agosto 2024 entrerà in vigore l’AI Act, il primo regolamento completo riguardante l’utilizzo responsabile e sicuro di questa tecnologia.

L’arrivo di quella che è considerata la “pietra miliare” del quadro normativo sull’Artificial Intelligence, metterà l’accento proprio sull’aspetto etico. Uno degli obiettivi principali dell’AI Act è, infatti, la protezione degli utenti e dei loro diritti fondamentali: gli utenti dovranno essere informati quando interagiscono con un sistema di intelligenza artificiale e le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”), dovranno essere chiaramente etichettati come tali. Verranno implementati maggiori controlli sul trattamento e la gestione dei dati personali, riducendo il rischio di abusi e violazioni della privacy.

Le sfide più significative le dovranno affrontare le PMI.  I costi per soddisfare un lungo elenco di requisiti a garanzia della sicurezza del sistema potrebbero limitare la competizione delle aziende rispetto a competitor dotati di maggiori risorse finanziarie e logistiche. Altra sfida sarà trovare l’equilibrio tra regolamentazione e promozione dell’innovazione: una normativa troppo rigida potrebbe, infatti, frenare il potenziale delle tecnologie e di conseguenza anche la nostra capacità di progredire.

Il regolamento prevede, inoltre, quattro livelli di rischio secondo cui suddividere le applicazioni AI, che vanno da quello “Inaccettabile”, che riguarda ad esempio i sistemi di identificazione biometrica remota, a quello “basso” , che interessa la maggior parte dei sistemi di IA con cui interagiamo oggi.

Stazioni intermedie sono: il rischio “alto” per il quale le aziende devo produrre una “valutazione di conformità” preliminare per garantire la sicurezza del sistema, e il rischio “limitato”, che richiede il soddisfacimento di obblighi legati alla trasparenza.

 

Photo Credtis: Tara Winstead on pexels