Guida Completa all’AI Act, il Nuovo Regolamento Europeo sull’Intelligenza Artificiale
Un passo epocale per l’Unione Europea: dopo anni di intenso lavoro il Parlamento Europeo ha dato luce verde all’AI Act, il primo regolamento al mondo che stabilisce norme e divieti per lo sviluppo dell’intelligenza artificiale. Un vasto documento (113 articoli e 13 allegati su 458 pagine scaricabili da questo link istituzionale) con valore vincolante e le cui norme stringenti dovranno essere recepite nei diversi ordinamenti nazionali. Ecco una guida ai nuovi livelli di rischio introdotti e come questo si ripecuoterà su ogni intelligenza artificiale.
Capire l’AI Act: applicazione e implicazioni
L’Unione Europea ha finalizzato le procedure per adottare l’AI Act la scorsa settimana (il 13 Marzo) e mancano ormai pochi passaggi prima che i Paesi membri debbano recepire questa innovativa regolamentazione dell’intelligenza artificiale. A ogni modo l’applicazione sarà graduale, per consentire ad aziende e governi di adeguarsi durante questa transizione. Si prevede quindi che la maggior parte delle norme sarà effettiva entro il 2026, con alcune eccezioni urgenti come il divieto per le applicazioni a rischio inaccettabile, applicabile entro sei mesi, ovvero a fine 2024.
Questo atto infatti categorizza le applicazioni AI in quattro livelli di “pericolo”, introducendo norme stringenti per le tecnologie ad alto rischio e vietando quelle considerate un rischio inaccettabile. Per i trasgressori sono previste multe salate: il mancato rispetto dell’AI Act comporterà sanzioni fino a 35 milioni di euro e fino al 7% del fatturato annuale. Cifre importanti, che rendono l’AI Act il più stringente standard internazionale per l’uso etico dell’IA finora esistente.
Un quadro normativo innovativo: cosa sono i livelli di rischio dell’AI Act
Come accennato l’AI Act classifica le applicazioni di intelligenza artificiale secondo quattro livelli di rischio, conseguenti al loro potenziale impatto sulla sicurezza e sui diritti dei cittadini.
Ecco cosa prevedono questi livelli.
.
Rischio minimo:
In questo caso non sarà prevista nessuna restrizione.
.
Rischio limitato:
Verranno introdotti requisiti minimi e basilari per garantire agli utenti la consapevolezza del funzionamento dell’AI o il suo coinvolgimento.
.
Rischio alto:
In questi casi ci sarà una valutazione dei rischi ed è prevista la documentazione di scelte tecniche ed etiche, con maggiori informazione agli utenti (rispetto ai casi circoscritti ai rischi limitati). Si preve inoltre la garanzia di un intervento umano e ulteriori livelli di sicurezza informatica.
In pratica l’AI Act non vieta i sistemi che prevedono un rischio alto, ma impone requisiti stringenti per mitigarne i rischi.
Esempi includono i sistemi di intelligenza artificiale generativa come ChatGpt, Gemini e Claude. I contenuti generati da queste AI (foto, video, audio) dovranno essere etichettati chiaramente per contrastare la diffusione di Deep Fake e aiutare gli utenti a discernere tra realtà e finzione. Si parla quindi di una vera e propria “etichettatura” obbligatoria (un avviso, un “warning”). Inoltre, per trasparenza e tutela del copyright, le società produttrici dovranno fornire informazioni su come allenano i modelli di linguaggio e sui dati utilizzati, a salvaguardia delle leggi sul copyright.
.
Rischio inaccettabile:
L’AI Act prevede il divieto assoluto per sistemi che violano i valori europei, come il social scoring, la sorveglianza di massa, il riconoscimento delle emozioni in contesti sensibili e lo sfruttamento di vulnerabilità individuali. Il tentativo è quello di eliminare o almeno limitare le discriminazioni della tecnologia ed evitare il cosiddetto “effetto Black Mirror”, ovvero quelle distopiche situazioni immaginate nel popolare telefilm e a cui l’innovazione rischia di abituarci. All’interno del documento approvato infatti, decine di pagine sono dedicate a circoscrivere e definire ambiti specifici come l’uso di dati biometrici, il presentarsi di eventuali distorsioni e le corrette valutazioni dei rischi.
.
AI Act, un passo verso l’Etica nell’Intelligenza Artificiale
Al netto delle analisi di merito su singoli aspetti, il semplice affrontare rischi concreti e così attuali rende l’AI Act, con tutti i limiti che saprà dimostrare, un “punto di partenza” di cui c’era urgente bisogno. La speranza di tutti è che questo possa essere un passo fondamentale verso un futuro in cui l’intelligenza artificiale sia sviluppata e utilizzata in modo responsabile, nel rispetto dei valori e dei diritti delle persone.
Se vuoi più informazioni sull’intelligenza artificiale clicca qui.
Se vuoi scoprire un modo etico di fare impresa invece clicca qui.