Digital Omnibus e AI Act: una revisione che indebolisce la strategia europea sull’intelligenza artificiale
La proposta di revisione contenuta nel Digital Omnibus sta ridisegnando in modo significativo il quadro normativo europeo in materia di intelligenza artificiale, intervenendo sia sull’AI Act sia, indirettamente, sul GDPR. I punti centrali della riforma riguardano tre aree: la disciplina dei sistemi di IA ad alto rischio, la revisione dell’AI literacy, e la ridefinizione del dato pseudonimo. Una revisione che, nelle intenzioni, dovrebbe favorire la competitività europea, ma che nella sostanza apre scenari di compromesso che potrebbero ridimensionare l’ambizione regolatoria dell’Unione.
Sistemi di IA ad alto rischio: un impianto più morbido
La classificazione dei sistemi di IA ad alto rischio rimane il cuore dell’AI Act, ma il Digital Omnibus introduce una gestione più flessibile, con effetti diretti sull’operatività delle imprese. Le principali novità riguardano lo slittamento delle scadenze, che si spostano dal 2026 al 2027-2028, la maggiore discrezionalità nella valutazione dei rischi e l’applicazione del principio di proporzionalità, soprattutto a beneficio delle PMI. In particolare, se un sistema rientra formalmente tra quelli ad alto rischio ma il provider dimostra documentazione alla mano che il suo impiego concreto non comporta rischi elevati, non sarà necessario registrarlo nel database pubblico europeo, pur rimanendo l’obbligo di fornire prova della valutazione in caso di richiesta. Si tratta di un alleggerimento che rende la regolazione più negoziabile, introducendo maggiore elasticità ma anche nuove zone grigie rispetto alla coerenza e alla stabilità dell’impianto originario.
AI Literacy: un passo indietro inatteso
La revisione proposta segna un arretramento significativo sul piano dell’AI literacy. La versione iniziale dell’AI Act attribuiva a provider e deployer obblighi chiari nel garantire un livello adeguato di alfabetizzazione interna ed esterna sull’uso dell’intelligenza artificiale. Il Digital Omnibus, invece, elimina questo obbligo giuridico e lo trasforma in un obiettivo programmatico a carico della Commissione europea e degli Stati membri, mentre agli operatori privati è semplicemente raccomandato di favorirne la diffusione. Questo indebolimento appare incoerente con l’impostazione generale della regolazione, basata sulla responsabilità dell’operatore. Senza una reale alfabetizzazione, infatti, il rischio è di avere regole più leggere ma operatori meno preparati, con potenziali ricadute negative sulla sicurezza e sulla competitività del settore.
Dato pseudonimo: un allentamento che incide sul GDPR
Sul piano della protezione dei dati, il Digital Omnibus interviene su un aspetto cruciale: la gestione dei dati pseudonimizzati. La proposta apre alla possibilità che tali dati escano, in parte e in determinate condizioni, dal perimetro applicativo del GDPR. Questo potrebbe consentire un uso più flessibile dei dati nel training dei modelli, una minore rigidità nell’applicazione dei principi di minimizzazione e limitazione delle finalità, e una maggiore compatibilità tra esigenze dei big data e vincoli normativi. Una soluzione che risponde alle richieste industriali, ma che rischia di comprimere alcune garanzie sostanziali, soprattutto in un contesto in cui le tecniche di re-identificazione diventano sempre più sofisticate.
Competitività e sovranità digitale: un equilibrio fragile
La logica complessiva della revisione è orientata a rendere l’Europa più competitiva rispetto a Stati Uniti e Cina. La Commissione sembra aver interiorizzato le critiche dell’industria, che da anni sottolinea come l’Europa pecchi di lentezza, eccesso di burocrazia e frammentazione normativa. Tuttavia, alleggerire gli obblighi non è sufficiente per rafforzare la competitività se non si consolida parallelamente un ecosistema formativo solido. Il depotenziamento dell’AI literacy rischia di generare un paradosso: più flessibilità regolatoria accompagnata da una crescente impreparazione degli operatori.
Il Brussels Effect alla prova
Il nuovo impianto normativo dovrà misurarsi con un interrogativo cruciale: l’Unione Europea continuerà a esercitare il proprio ruolo di standard-setter globale o questa fase di allentamento normativo ne comprometterà l’autorevolezza? Il cosiddetto Brussels Effect, cioè la capacità dell’UE di esportare i propri standard regolatori nel mondo, si fonda su un equilibrio tra tutela dei diritti, rigore normativo e capacità di governance. Se la regolazione diventa troppo flessibile, il rischio è di trasformare questo equilibrio in un Brussels Compromise, una mediazione interna priva della forza necessaria per imporsi a livello internazionale. La domanda politica fondamentale è dunque se l’Europa voglia ancora guidare la governance globale dell’intelligenza artificiale o preferisca rincorrere l’innovazione adottando un modello più leggero e accomodante.
