Nel settore dell’intelligenza artificiale, l’evoluzione delle normative e la crescente consapevolezza sui rischi associati ai modelli di frontiera stanno spingendo le aziende ad adottare policy di sicurezza sempre più rigorose. Anthropic (madre del famoso claude.ai), una delle principali startup di ricerca nell’ambito dell’IA, ha recentemente pubblicato un significativo aggiornamento alla sua Responsible Scaling Policy (RSP) , una politica di governance del rischio progettata per mitigare i potenziali rischi catastrofici derivanti dai sistemi di AI avanzati.

In questo articolo, analizzeremo in cosa consiste questa nuova versione della RSP di Anthropic, quali sono i principi su cui si basa e perché, a nostro avviso, questo aggiornamento rappresenta anche una risposta alle future normative europee sull’AI, come l’ AI Act .

Cosa prevede l’aggiornamento della Responsible Scaling Policy (RSP) di Anthropic?

Anthropic ha introdotto la sua Responsible Scaling Policy per la prima volta nel 2023, con l’obiettivo di creare un framework di gestione del rischio per i suoi modelli di intelligenza artificiale. Con l’aggiornamento pubblicato il 15 ottobre 2024, la startup californiana ha raffinato e ampliato questo framework, introducendo nuove soglie di capacità, misure di salvaguardia proporzionali ai rischi e processi di governance interna ed esterna.

Nello specifico, l’aggiornamento include:

  1. Soglie di Capacità – Anthropic ha definito specifiche capacità che, una volta raggiunte, richiedono l’applicazione di misure di sicurezza più stringenti. Ad esempio:
    • Ricerca e sviluppo autonomo : se un modello è in grado di condurre ricerche avanzate in autonomia, Anthropic applicherà standard di sicurezza elevati (potenzialmente a livello ASL-4), per evitare che l’evoluzione della tecnologia superi la capacità dell’azienda di gestire i rischi emergenti.
    • CBRN (Chemical, Biological, Radiological, Nuclear) : se un modello può fornire assistenza nella creazione di armi chimiche, biologiche, radiologiche o nucleari a individui con una conoscenza tecnica di base, vengono implementati standard ASL-3, comprensivi di maggiori controlli di accesso e sicurezza.
  2. Standard di Sicurezza dell’Intelligenza Artificiale (AI Safety Level Standards) – Anthropic ha adottato un sistema di livelli di sicurezza ispirato ai livelli di biosicurezza (ASL-1, ASL-2, ASL-3, etc.), che aumentare di rigore man mano che i modelli AI diventano più capaci e, di conseguenza, potenzialmente più pericolosi. Attualmente, tutti i modelli di Anthropic lavorano a livello ASL-2, allineato alle migliori pratiche del settore.
  3. Governance e Monitoraggio Continui – L’aggiornamento della RSP introduce valutazioni periodiche delle capacità dei modelli (Capability Assessments) e dell’efficacia delle salvaguardie (Safeguard Assessments), con processi di documentazione ispirati alle “safety case Methodologies” utilizzate nelle industrie ad alta sicurezza. Inoltre, Anthropic ha aumentato l’enfasi sulla consultazione con esperti esterni , raccogliendo feedback per migliorare continuamente la loro metodologia di valutazione dei rischi.
  4. Nuove Figure di Responsabilità – Jared Kaplan, Co-Fondatore e Chief Science Officer, è stato nominato nuovo Responsible Scaling Officer , e Anthropic ha aperto una posizione per un Head of Responsible Scaling, dimostrando l’impegno a rafforzare l’implementazione della RSP su tutti i fronti aziendali.

Queste misure rappresentano una risposta concreta alle sfide poste dalla rapida evoluzione dell’intelligenza artificiale avanzata. Ma c’è un altro fattore da considerare: l’ AI Act dell’Unione Europea.

Cos’è la Responsible Scaling Policy (RSP) di Anthropic?

La Responsible Scaling Policy è un framework di gestione del rischio che guida Anthropic nel bilanciare il progresso tecnologico con le misure di sicurezza necessarie per prevenire potenziali rischi catastrofici. In altre parole, è una serie di linee guida che determinano fino a che punto i modelli di AI di Anthropic possono essere sviluppati e implementati in sicurezza.

L’RSP si basa su alcuni principi fondamentali:

  • Protezione proporzionale : le misure di sicurezza adottate devono essere proporzionate al rischio. Man mano che i modelli diventano più capaci e potenzialmente pericolosi, aumentano i livelli di protezione e sicurezza richiesti.
  • Valutazioni periodiche : i modelli vengono valutati regolarmente per verificare se hanno raggiunto nuove capacità che richiedono aggiornamenti nelle misure di sicurezza.
  • Trasparenza e Documentazione : ogni valutazione e decisione è documentata rigorosamente per garantire trasparenza e accountability. Questo approccio è ispirato a metodologie di “safety case” comuni nelle industrie a rischio elevato, come quella nucleare o aerospaziale.
  • Coinvolgimento di Esperti Esterni : Anthropic si consulta con esperti esterni per assicurarsi che le sue pratiche siano allineate con le ultime ricerche e le normative emergenti.

L’obiettivo finale della RSP è prevenire scenari in cui i modelli di AI avanzati possono causare danni significativi, volontariamente o involontariamente, mantenendo i rischi al di sotto di una soglia accettabile.

Perché la Responsible Scaling Policy è una risposta all’AI Act dell’UE?

L’ AI Act è una proposta di regolamento dell’Unione Europea che mira a stabilire requisiti di sicurezza e trasparenza per i sistemi di intelligenza artificiale, soprattutto per quelli considerati ad alto rischio . Questa normativa, una volta approvata, imporrà alle aziende di conformarsi a standard rigorosi per garantire che i loro sistemi non mettano in pericolo la sicurezza pubblica oi diritti fondamentali delle persone.

L’aggiornamento della RSP di Anthropic può essere visto come una risposta anticipata a questi requisiti per diverse ragioni:

  1. Allineamento con i Livelli di Rischio dell’AI Act – L’AI Act classifica i sistemi AI in base al loro livello di rischio, richiedendo misure di sicurezza proporzionali. Gli AI Safety Level Standards (ASL) di Anthropic seguono un approccio simile, con livelli di sicurezza graduati in base alle capacità e ai rischi potenziali dei modelli. Questo rende l’RSP di Anthropic potenzialmente compatibile con l’approccio dell’AI Act, posizionando l’azienda in una buona posizione per conformarsi alle normative europee.
  2. Focus su Capacità Pericolose – L’AI Act prevede restrizioni severe per i sistemi AI che potrebbero essere utilizzati in ambiti sensibili o pericolosi, come la biotecnologia o la sicurezza nazionale. La RSP di Anthropic include soglie specifiche per le capacità potenzialmente pericolose (es. assistenza nella creazione di armi CBRN), segnalando un impegno a prevenire usi dannosi dei modelli AI. Questo approccio è coerente con il regolamento europeo, che cerca di limitare la possibilità che l’AI venga utilizzata in modi nocivi.
  3. Documentazione e Trasparenza – L’AI Act impone requisiti di documentazione per garantire che le decisioni di sicurezza siano trasparenti e tracciabili. La RSP aggiornata di Anthropic enfatizza la documentazione dettagliata e il tracciamento di tutte le valutazioni e decisioni, posizionando l’azienda per soddisfare eventuali richieste di audit o verifiche da parte delle autorità europee.
  4. Proattività nella Sicurezza – Anticipare le normative può essere una strategia vantaggiosa per le aziende che lavorano su scala globale. Implementando la RSP, Anthropic si posiziona come leader proattivo nella gestione dei rischi AI, dimostrando di prendere seriamente la questione della sicurezza. Questo potrebbe facilitare l’accesso ai mercati regolamentati come l’UE e prevenire problematiche legali o regolamentari nel futuro.

Cosa fare se usi Claude.ai di Anthropic

L’aggiornamento della Responsible Scaling Policy di Anthropic è un esempio di come le aziende di AI possano rispondere alle sfide poste dai rischi associati ai modelli avanzati, dimostrando responsabilità e proattività. Sebbene la RSP sia una policy interna, è evidente che il suo approccio riflette i principi dell’AI Act dell’Unione Europea , posizionando Anthropic in una posizione di vantaggio per la conformità futura.

Con la crescita rapida dell’intelligenza artificiale, è probabile che sempre più aziende seguiranno l’esempio di Anthropic, sviluppando framework di sicurezza che bilanciano l’innovazione con la necessità di proteggere la società da potenziali abusi e rischi catastrofici. L’approccio di Anthropic è un segnale positivo per l’intero settore, e un modello che altre aziende potrebbero adottare in vista dell’approvazione dell’AI Act. Se usi Claude.ai per elaborare e gestire i dati in azienda, verifica con i tuoi consulenti privacy di fiducia come le modifiche di Anthropic impattano sulle tue operazioni e la relativa protezione dei dati personali.

Leave a Reply

Your email address will not be published.