Il 2 febbraio 2024 il Consiglio europeo ha approvato il Regolamento sull’intelligenza artificiale (AI Act), un passo storico che stabilisce le prime regole comuni sull’uso dell’IA nell’UE.

Artificial Intelligence Act: un approccio basato sul rischio

L’obiettivo principale del regolamento sull’intelligenza artificiale (AI Act) è duplice:

Garantire che i sistemi di IA siano sicuri e rispettosi dei diritti fondamentali e dei valori dell’UE, in particolare la privacy e la protezione dei dati.

L’IA ha il potenziale per migliorare la nostra vita in molti modi, ma può anche comportare rischi per la sicurezza, la salute, i diritti fondamentali e la democrazia. L’AI Act mira a mitigare questi rischi attraverso una serie di misure, tra cui:

  • Divieto di sistemi di IA inaccettabili: L’AI Act vieta lo sviluppo e l’utilizzo di sistemi di IA che rappresentano un rischio inaccettabile per la sicurezza, la salute, i diritti fondamentali o la democrazia.
  • Requisiti rigorosi per i sistemi di IA ad alto rischio: I sistemi di IA ad alto rischio, come quelli utilizzati per la sorveglianza in tempo reale o per le decisioni creditizie, dovranno soddisfare requisiti rigorosi per la valutazione e la mitigazione del rischio.
  • Maggiori garanzie per la privacy e la protezione dei dati: L’AI Act rafforza i diritti degli utenti in materia di privacy e protezione dei dati, garantendo loro il controllo dei propri dati e il diritto di essere informati su come i loro dati vengono utilizzati per l’IA.

Promuovere lo sviluppo e l’adozione responsabile dell’IA in Europa.

L’UE vuole essere un leader mondiale nello sviluppo e nell’utilizzo responsabile dell’IA. L’AI Act contribuirà a creare un ambiente normativo favorevole all’innovazione responsabile dell’IA, garantendo al contempo che i sistemi di IA siano sviluppati e utilizzati in modo sicuro etico.

Perché questi due obiettivi sono importanti?

L’IA è una tecnologia potente che può avere un impatto significativo sulla società umana. È importante che l’IA sia sviluppata e utilizzata in modo responsabile, in modo da massimizzare i benefici e minimizzare i rischi. L’AI Act è un passo importante per raggiungere questo obiettivo.

L’AI Act mira pertanto a creare un ecosistema di Intelligenze Artificiali sicuro, affidabile e rispettoso dei diritti fondamentali e dei valori dell’UE. Questo approccio è fondamentale per garantire che l’IA sia utilizzata per il bene della società e non per fare danni.

L’AI Act si basa su un approccio di “livello di rischio”

L’AI Act introduce un approccio fondamentale basato sul concetto di “livello di rischio” per regolare l’integrazione e l’implementazione dell’intelligenza artificiale (IA) nella società. Questo modello classifica le diverse applicazioni di IA in base al livello di rischio che rappresentano per la sicurezza, la salute, i diritti fondamentali e la democrazia.

Il primo livello, IA inaccettabile, comprende le tecnologie che sono considerate troppo pericolose o invasive per essere permesso il loro utilizzo. Questo include, ad esempio, i sistemi di punteggio di “affidabilità sociale” che possono minacciare i diritti individuali e la privacy dei cittadini.

Il secondo livello, IA ad alto rischio, riguarda le applicazioni di IA che presentano rischi significativi e che richiedono quindi una rigorosa valutazione e mitigazione del rischio. Un esempio di questo potrebbe essere l’uso di sistemi di riconoscimento facciale per la sorveglianza in tempo reale, che possono avere implicazioni sulla privacy e sui diritti civili.

Infine, il terzo livello, IA a rischio limitato, include le applicazioni di IA che presentano rischi minori ma che comunque richiedono una certa regolamentazione per garantire la trasparenza e la correttezza nell’uso. Un esempio comune potrebbe essere un chatbot utilizzato per l’assistenza al cliente, che sebbene meno invasivo, richiede comunque una supervisione per evitare abusi o comportamenti dannosi.

L’approccio “livello di rischio” dell’AI Act fornisce un quadro flessibile ma robusto per la regolamentazione dell’IA, garantendo che le tecnologie più pericolose siano proibite, che quelle ad alto rischio siano attentamente valutate e controllate, e che quelle a rischio limitato siano utilizzate in modo responsabile e trasparente.

  • IA inaccettabile: Proibita perché rappresenta un rischio inaccettabile per la sicurezza, la salute, i diritti fondamentali o la democrazia (es. sistemi di punteggio di “affidabilità sociale”).
  • IA ad alto rischio: Soggetta a requisiti rigorosi per la valutazione e la mitigazione del rischio (es. sistemi di riconoscimento facciale utilizzati per la sorveglianza in tempo reale).
  • IA a rischio limitato: Requisiti meno severi, ma comunque necessari per garantire la trasparenza e la correttezza dell’IA (es. chatbot).

L’AI Act introduce diverse misure per rafforzare la privacy e la protezione dei dati:

  • Trasparenza: Obbligo di fornire informazioni chiare e accessibili su come funzionano i sistemi di IA e su come vengono utilizzati i dati.
  • Controllo dei dati: Gli utenti avranno il diritto di accedere, correggere e cancellare i propri dati utilizzati per l’IA.
  • Non discriminazione: Proibizione di utilizzare l’IA per discriminare le persone in base a razza, etnia, sesso, religione, disabilità o altri fattori protetti.
  • Valutazione d’impatto sulla protezione dei dati: Obbligatoria per i sistemi di IA ad alto rischio.

L’AI Act rappresenta un progresso significativo per la tutela dei dati in un’epoca in cui l’intelligenza artificiale influenza sempre più il nostro quotidiano. Tuttavia, è importante riconoscere che alcuni aspetti di questa normativa possono ancora suscitare dibattiti e richiedere chiarimenti.

Uno degli elementi di discussione riguarda il livello di dettaglio delle norme tecniche previste dall’AI Act. Queste norme definiscono i requisiti e le procedure specifiche che le organizzazioni devono seguire per garantire la conformità con le disposizioni del regolamento.

Un’altra questione controversa riguarda il ruolo delle autorità competenti nell’attuazione e nell’applicazione dell’AI Act. È essenziale garantire che le autorità siano dotate delle risorse e delle competenze necessarie per monitorare e far rispettare le disposizioni del regolamento in modo efficace ed equo. Inoltre, è importante promuovere ulteriormente la collaborazione tra le autorità nazionali e quelle europee per garantire una coerente applicazione delle norme in tutta l’Unione Europea.

Se sei interessato a comprendere meglio gli impatti dell’AI Act sulla tua organizzazione e desideri assicurarti di essere in piena conformità con le disposizioni del regolamento, ti invitiamo a contattare il nostro team di protezione dei dati. Siamo qui per offrire consulenza e supporto personalizzati per affrontare le sfide e le opportunità legate all’implementazione dell’IA nel rispetto delle normative vigenti. Non esitare a contattarci per una valutazione gratuita e approfondita della tua situazione. La tua conformità è la nostra priorità.

L’entrata in vigore del regolamento è prevista per il 2025 ma già subito puoi predisporre tutto il necessario per rendere meno complessa la declinazione della norma all’interno della tua organizzazione.

Insieme possiamo contribuire a creare un futuro in cui l’IA sia sviluppata e utilizzata in modo responsabile e rispettoso dei diritti fondamentali.

Leave a Reply

Your email address will not be published.