Benvenuti su Sì! Magazine - il blog di pagine sì!

L’Intelligenza Artificiale sotto il controllo dell’Europa? Guida all’AI Act

cosa prevede l'ai act guida completa ed etica

Guida Completa all’AI Act, il Nuovo Regolamento Europeo sull’Intelligenza Artificiale

Un passo epocale per l’Unione Europea: dopo anni di intenso lavoro il Parlamento Europeo ha dato luce verde all’AI Act, il primo regolamento al mondo che stabilisce norme e divieti per lo sviluppo dell’intelligenza artificiale. Un vasto documento (113 articoli e 13 allegati su 458 pagine scaricabili da questo link istituzionale) con valore vincolante e le cui norme stringenti dovranno essere recepite nei diversi ordinamenti nazionali.  Ecco una guida ai nuovi livelli di rischio introdotti e come questo si ripecuoterà su ogni intelligenza artificiale.

 

Capire l’AI Act: applicazione e implicazioni

L’Unione Europea ha finalizzato le procedure per adottare l’AI Act la scorsa settimana (il 13 Marzo) e mancano ormai pochi passaggi prima che i Paesi membri debbano recepire questa innovativa regolamentazione dell’intelligenza artificiale. A ogni modo l’applicazione sarà graduale, per consentire ad aziende e governi di adeguarsi durante questa transizione. Si prevede quindi che la maggior parte delle norme sarà effettiva entro il 2026, con alcune eccezioni urgenti come il divieto per le applicazioni a rischio inaccettabile, applicabile entro sei mesi, ovvero a fine 2024.

Questo atto infatti categorizza le applicazioni AI in quattro livelli di “pericolo”, introducendo norme stringenti per le tecnologie ad alto rischio e vietando quelle considerate un rischio inaccettabile. Per i trasgressori sono previste multe salate: il mancato rispetto dell’AI Act comporterà sanzioni fino a 35 milioni di euro e fino al 7% del fatturato annuale. Cifre importanti, che rendono l’AI Act il più stringente standard internazionale per l’uso etico dell’IA finora esistente.

 

Un quadro normativo innovativo: cosa sono i livelli di rischio dell’AI Act

Come accennato l’AI Act classifica le applicazioni di intelligenza artificiale secondo quattro livelli di rischio, conseguenti al loro potenziale impatto sulla sicurezza e sui diritti dei cittadini.
Ecco cosa prevedono questi livelli.

.

Rischio minimo:

In questo caso non sarà prevista nessuna restrizione.

.

Rischio limitato:

Verranno introdotti requisiti minimi e basilari per garantire agli utenti la consapevolezza del funzionamento dell’AI o il suo coinvolgimento.

.

Rischio alto:

In questi casi ci sarà una valutazione dei rischi ed è prevista la documentazione di scelte tecniche ed etiche, con maggiori informazione agli utenti (rispetto ai casi circoscritti ai rischi limitati). Si preve inoltre la garanzia di un intervento umano e ulteriori livelli di sicurezza informatica.

In pratica l’AI Act non vieta i sistemi che prevedono un rischio alto, ma impone requisiti stringenti per mitigarne i rischi.

Esempi includono i sistemi di intelligenza artificiale generativa come ChatGpt, Gemini e Claude. I contenuti generati da queste AI (foto, video, audio) dovranno essere etichettati chiaramente per contrastare la diffusione di Deep Fake e aiutare gli utenti a discernere tra realtà e finzione. Si parla quindi di una vera e propria “etichettatura” obbligatoria (un avviso, un “warning”). Inoltre, per trasparenza e tutela del copyright, le società produttrici dovranno fornire informazioni su come allenano i modelli di linguaggio e sui dati utilizzati, a salvaguardia delle leggi sul copyright.

.

Rischio inaccettabile:

L’AI Act prevede il divieto assoluto per sistemi che violano i valori europei, come il social scoring, la sorveglianza di massa, il riconoscimento delle emozioni in contesti sensibili e lo sfruttamento di vulnerabilità individuali. Il tentativo è quello di eliminare o almeno limitare le discriminazioni della tecnologia ed evitare il cosiddetto “effetto Black Mirror”, ovvero quelle distopiche situazioni immaginate nel popolare telefilm e a cui l’innovazione rischia di abituarci. All’interno del documento approvato infatti, decine di pagine sono dedicate a circoscrivere e definire ambiti specifici come l’uso di dati biometrici, il presentarsi di eventuali distorsioni e le corrette valutazioni dei rischi.

.

AI Act, un passo verso l’Etica nell’Intelligenza Artificiale

Al netto delle analisi di merito su singoli aspetti, il semplice affrontare rischi concreti e così attuali rende l’AI Act, con tutti i limiti che saprà dimostrare, un “punto di partenza” di cui c’era urgente bisogno. La speranza di tutti è che questo possa essere un passo fondamentale verso un futuro in cui l’intelligenza artificiale sia sviluppata e utilizzata in modo responsabile, nel rispetto dei valori e dei diritti delle persone.

Se vuoi più informazioni sull’intelligenza artificiale clicca qui.

Se vuoi scoprire un modo etico di fare impresa invece clicca qui.

Condividi l'Articolo:

Picture of Team Comunicazione
Team Comunicazione
Le persone del Sì! Magazine, il blog di Pagine Sì! dedicato alla realtà digitale. Scriviamo guide, informazioni, approfondimenti e notizie sul nostro mondo. Qui trovi le piccole e grandi storie di successo, gli importanti dibattiti sull’innovazione, i temi legati alla trasformazione digitale, gli strumenti utili legati alla tecnologia e al marketing.

richiedi consulenza gratuita

Imprenditore o Professionista? Sviluppa la tua Strategia Digitale

Se hai una Azienda o sei un Libero Professionista, approfitta della Consulenza Pagine Sì! per definire la tua Strategia di Comunicazione e Marketing Digitale.

Compila il Modulo di Richiesta e ti forniremo una CONSULENZA GRATUITA e senza impegno.

CONSULENZA_MAGAZINE