L’AI Act sarà in grado di dettare nuovi standard?

L’UE mira a delineare regole globali per l’intelligenza artificiale, bilanciando innovazione, etica e competizione geopolitica.

Negli ultimi anni, l’intelligenza artificiale (IA) si è evoluta a un ritmo vertiginoso, ma questo progresso senza precedenti è stato accompagnato da preoccupazioni relative alla sua governance, ai rischi e alla necessità di standard. Nella rivalità tra Stati Uniti e Cina, l’IA è ormai una risorsa strategica militare, politica ed economica: un motivo in più per definire un quadro normativo globale. Tra i principali rischi figurano la corsa alle armi autonome, che potrebbe moltiplicare i cyberattacchi e i conflitti accidentali, e la protezione dei dati personali, spesso utilizzati senza consenso per addestrare modelli linguistici di grandi dimensioni. Non meno grave è l’uso malevolo dell’IA: deepfake, propaganda e sorveglianza di massa. Queste criticità hanno spinto governi, imprese e centri di ricerca a invocare standard comuni. L’Unione europea, forte della sua reputazione di “potenza regolatoria”, ha scelto di assumere un ruolo di primo piano. Con l’adozione dell’AI Act nel giugno 2024, Bruxelles ha compiuto un passo storico, mirando a diventare un “imprenditore normativo” nella governance globale dell’intelligenza artificiale. Per comprenderne l’impatto, è utile esaminare la struttura dell’AI Act.

La struttura

L’AI Act europeo è il primo quadro giuridico completo adottato specificamente per disciplinare l’intelligenza artificiale, sebbene l’UE avesse già stabilito dei precedenti. Nel 2018 la Commissione europea ha istituito il Gruppo di esperti di alto livello sull’IA (AI HLEG), che ha pubblicato le Linee guida etiche per un’IA affidabile, definendola legale ed etica e promuovendo il concetto di “competitività responsabile”. Sebbene tali linee guida abbiano avuto un impatto limitato, in quanto non vincolanti, hanno comunque rappresentato un risultato significativo. Successivamente, nel 2022, la Commissione ha pubblicato il Libro bianco sull’IA, proponendo un approccio basato sull’innovazione, ma con garanzie di responsabilità integrate. Questi passaggi hanno definito l’UE come first mover nel monitoraggio dell’IA e hanno contribuito a plasmare la visione europea di un’IA affidabile.
L’Atto – la cui adozione avviene gradualmente – si fonda su un approccio basato sui livelli di rischio, in cui gli obblighi dipendono dal grado di pericolosità dei singoli sistemi di IA. Le categorie di rischio individuate sono le seguenti:

  1. Rischio inaccettabile: questi sistemi sono completamente vietati, poiché violano valori fondamentali (ad esempio a causa del rischio di discriminazione o di danno sociale).
  2. Rischio elevato: questi sistemi sono consentiti, ma a determinate condizioni. I sistemi di IA che incidono su servizi essenziali o infrastrutture critiche, ad esempio, sono soggetti a procedure di valutazione della conformità prima dell’immissione sul mercato e anche successivamente, attraverso la verifica del rispetto degli impegni assunti.
  3. Rischio limitato: in questi casi, i sistemi sono soggetti a obblighi di trasparenza che consentono la comprensione da parte degli utenti e un processo decisionale informato.
  4. Rischio minimo: nessun obbligo aggiuntivo, al fine di evitare una regolamentazione eccessiva.

Obiettivi e motivazioni

Il razionale alla base dell’AI Act si fonda su diversi elementi: l’urgente necessità di proteggere i diritti fondamentali, garantire la sicurezza dei consumatori e fornire una leadership etica. Un altro pilastro fondamentale è la promozione dei valori dell’UE, basata sul concetto di “IA antropocentrica”. Promosso dall’AI HLEG nel 2019, esso si fonda sull’idea che i sistemi di IA debbano rispettare i diritti fondamentali, garantire l’agency umana (ponendo gli esseri umani al centro dello sviluppo e dell’uso dell’IA) e, al contempo, servire gli interessi della società in modo trasparente. Ciò risuona profondamente con la tradizione costituzionale dell’UE, e le norme sull’IA dovrebbero seguire la stessa logica. A questo punto, l’effetto Bruxelles diventa evidente: adottando un approccio intermedio tra gli Stati Uniti (orientato al mercato) e la Cina (incentrato sullo Stato) – e promuovendo un tipo di innovazione che procede di pari passo con i diritti umani – l’UE mira a plasmare ed esportare questo modello di governance ad altri Paesi, senza imporlo e tutelando al contempo i propri interessi. L’obiettivo finale è promuovere un allineamento globale verso una governance dell’IA più etica e responsabile. Ma fino a che punto questo approccio si dimostrerà efficace?

Sfide e critiche

Sebbene i potenziali benefici dell’AI Act appaiano evidenti, permangono numerosi dubbi e criticità, e il suo successo dipenderà in larga misura dalla sua applicazione pratica. È improbabile che Stati Uniti e Cina adottino l’approccio europeo nel breve periodo, e l’incertezza prevale anche in altri Paesi: l’UE rischia dunque di imporre regole molto rigide al proprio interno senza riuscire realmente a influenzare gli standard globali. In questo scenario, investimenti e innovazione potrebbero spostarsi verso mercati più permissivi, nei quali le imprese affronterebbero minori vincoli.

Il pericolo è che la capacità dell’UE di dettare le regole perda forza man mano che altri Paesi sviluppano proprie regolamentazioni, eventualità che potrebbe verificarsi a breve dato il crescente pressing per rispondere ai rischi dell’IA. È vero che l’ambito di applicazione dell’AI Act è limitato ai prodotti destinati al mercato europeo, ma un allineamento internazionale potrebbe comunque emergere, poiché le imprese straniere che intendono accedere al mercato dell’UE devono conformarsi. Tuttavia, esse non accetteranno passivamente le regole, ma cercheranno di influenzarne la definizione per tutelare i propri interessi. Ciò solleva interrogativi più ampi sulla reale capacità dell’AI Act di proiettarsi oltre i confini europei. Le disposizioni sui sistemi ad alto rischio o vietati, così come gli obblighi di trasparenza, sono destinate con ogni probabilità a rimanere confinate al perimetro europeo, producendo un effetto Bruxelles limitato, basato principalmente sulla leva di mercato.

Critiche sono giunte anche dal mondo accademico. Il giurista Ugo Pagallo, ad esempio, sostiene che l’AI Act non produrrà un reale effetto Bruxelles per due ragioni principali: da un lato, l’esistenza di modelli giuridici alternativi, come quelli degli Stati Uniti e del Giappone; dall’altro, le definizioni eccessivamente ampie e vaghe contenute nel testo, che rischiano di diventare rapidamente obsolete, oltre a rendere il quadro regolatorio poco chiaro e dannoso per l’innovazione.

Ma le riserve non si fermano qui. Una questione cruciale riguarda la capacità di far rispettare la normativa: resta da verificare se le autorità nazionali dispongano delle competenze tecniche e delle risorse necessarie per esercitare una supervisione efficace, in particolare nei confronti dei grandi colossi tecnologici globali. Infine, permangono lacune in ambiti fondamentali, come l’intelligenza artificiale di uso generale (GPAI) e i sistemi autonomi avanzati, ma anche nell’utilizzo dell’IA da parte dei governi nel campo della sorveglianza e della sicurezza nazionale, che è stato quasi del tutto trascurato. La vera sfida sarà dunque la capacità dell’AI Act di adattarsi a un contesto tecnologico e geopolitico in continua evoluzione: un obiettivo che potrebbe rivelarsi più complesso del previsto.

La diplomazia digitale dell’UE

Parallelamente all’AI Act, l’UE ha avviato un intenso sforzo diplomatico per diffondere la propria visione dell’intelligenza artificiale e rafforzare l’effetto Bruxelles. Forum multilaterali come il G7 e il G20 stanno discutendo rischi e principi comuni, mentre a livello bilaterale spiccano il dialogo con gli Stati Uniti nel Consiglio per il Commercio e la Tecnologia e gli accordi digitali con Canada, Giappone e India. Il caso canadese è particolarmente significativo: la normativa nazionale (AIDA Act) segue l’approccio europeo. Per consolidare il proprio ruolo di norm entrepreneur, Bruxelles ha inoltre proposto un Global AI Panel modellato sull’IPCC, incaricato di fornire valutazioni scientifiche e raccomandazioni ai governi. L’iniziativa è ancora nelle sue fasi iniziali, ma conferma l’ambizione dell’UE di affermarsi come punto di riferimento globale nella regolamentazione dell’intelligenza artificiale.

Prossime sfide: cosa resta da fare?

Nonostante i progressi compiuti, vi sono ancora diverse aree sulle quali l’UE dovrebbe concentrarsi per rafforzare l’efficacia dell’AI Act. Il primo punto riguarda la promozione dell’innovazione. A differenza degli Stati Uniti, che da tempo sostengono la ricerca attraverso finanziamenti pubblici e partenariati con il settore privato, l’Europa rischia di perdere competitività. Sarebbe quindi importante creare canali di finanziamento dedicati a progetti conformi ai principi dell’AI Act – trasparenza, equità, centralità dell’essere umano – e sostenere start-up e piccole imprese. L’UE potrebbe anche agire come “primo cliente”, testando nuove tecnologie conformi, per premiare il rispetto delle proprie regole non solo con vincoli normativi, ma anche con incentivi concreti.

Un altro elemento riguarda la necessità di definire standard globali. Una collaborazione più approfondita con gli organismi internazionali di standardizzazione, come l’ISO, contribuirebbe a chiarire i punti ambigui dell’AI Act, facilitandone l’attuazione e garantendo l’interoperabilità globale, come sottolineato da Pagallo. Disporre di standard chiari e condivisi prima dell’entrata in pieno vigore della legislazione ridurrebbe i problemi di conformità e rafforzerebbe la proiezione internazionale del modello europeo.

Un’attenzione particolare dovrebbe essere rivolta anche alle lacune nell’intelligenza artificiale generalista e autonoma. Le norme introdotte all’ultimo momento durante il processo legislativo restano poco sviluppate e non affrontano realmente i rischi più sensibili, come l’uso improprio dei modelli o la governance di sistemi capaci di agire autonomamente. Trascurare questi aspetti rischia di lasciare pericolose zone grigie nella regolamentazione.

Infine, l’UE dovrebbe riflettere sulla propria flessibilità regolatoria. Il processo legislativo europeo garantisce trasparenza, ma la sua rigidità rende difficile tenere il passo con la rapida evoluzione dell’IA. Modelli più dinamici, che prevedano linee guida sperimentali testate sul campo e successivamente adattate, potrebbero consentire un migliore equilibrio: regole solide, ma capaci di evolvere di fronte a nuove sfide tecnologiche.


Bibliografia