Think tank

Perché l’AI Act è una scommessa (da vincere)

Pubblicato il 27 Mar 2024

Massimo Mattone
Massimo Mattone

Direttore Responsabile HEALTHTECH360.it

AI Act

Non c’è nulla di più divisivo di tentare di regolamentare la tecnologia.

Da un lato, i sostenitori della deregulation, secondo i quali le regole frenano l’innovazione e il mercato. Dall’altro, i garantisti dei diritti fondamentali dell’uomo, promotori di una visione umanocentrica della tecnologia e additati dai primi – ove ricoprano il ruolo di decisori e legislatori – quali “imbrigliatori” del progresso e dello sviluppo tecnologico in un sistema di leggi e leggine di fatto inapplicabili e, quindi, artefici della paralisi del processo d’innovazione e dei mercati basati sull’economia digitale.

E responsabile di questo freno a mano dell’innovazione, della voglia matta di legiferare sempre e su tutto – a detta dei detrattori – sarebbe proprio l’Europa.

Un convincimento così forte da aver fatto nascere l’aforisma, molto in voga negli USA:
“L’America fa, la Cina copia, l’Europa regola”.

Invero, la complessità dei rapporti tra Diritto e Innovazione tecnologica è qualcosa che va al di là del semplice scontro tra fanatici di opposte fazioni. È un rompicapo metodologico ben noto a economisti, filosofi e studiosi delle tecnologie e del progresso scientifico. Tanto da assurgere a paradosso, come nel caso del cosiddetto dilemma di Collingridge, al quale è legato a doppio filo il pacing problem (problema del ritmo) teorizzato da Larry Downes in “The Laws of Disruption”.
Viste nel loro insieme, tali studi e teorie sottolineano il vero e proprio impasse causato dalle differenti velocità con cui si muovono tecnologia e regolatore.
Una sorta di Achille in cui il legislatore tartaruga insegue disperatamente la tecnologia, senza mai riuscire a raggiungerla. In un contesto in cui è difficile anche capire quando, come e se sia opportuno e possibile intervenire per cambiare il corso di una tecnologia provando a prevenirne (spiacevoli) conseguenze: infatti, quando il cambiamento è ancora facile – questo il pensiero di David Collingridge – non ne comprendiamo la necessità; quando, invece, il bisogno di un cambiamento è evidente, è ormai difficile e costoso introdurlo.

In soldoni: le tecnologie innovative crescono in maniera esponenziale, il legislatore è costretto a inseguirle ma i suoi tempi, in confronto, sono biblici. E intanto – in attesa di regole certe – le aziende non sanno che pesci prendere e restano ferme, impantanate in un percorso a ostacoli che spesso nega loro anche la semplice possibilità di avviare sperimentazioni. Che altrove, invece, corrono veloci. Un ritardo e un gap che non sarà più possibile colmare e che, spesso, farà gettare la spugna a tante realtà innovative, aziende e start-up che magari in altri luoghi – in California, per esempio – avrebbero avuto sorte assai diversa.

Argomentazioni simili sono state sollevate da alcuni esperti anche per l’AI Act, il Regolamento UE sull’Intelligenza Artificiale approvato di recente dal Parlamento Europeo.

Accanto a chi – in tanti, invero – ha esultato definendo l’approvazione dell’AI Act un momento storico e plaudendo all’Europa poiché capace di essere promotore e guida della prima legge al mondo sull’AI, c’è stato anche chi ha sottolineato come, mentre in Europa ci si preoccupa di fare l’arbitro, scrivendo le leggi a cui sottoporre le tecnologie, altrove (America) si fa business, si gioca la partita. E si fanno profitti.

A pensare che – pur essendo giusto che vi siano opportune normative sull’AI – l’Europa sia troppo “arbitro” e poco “giocatore”, ci sono anche alcuni tra i maggiori esperti mondiali di economia digitale:

“Certo, dovrebbero esserci delle normative ragionevoli sull’AI – afferma in un’intervista a Repubblica Alec Ross, imprenditore ed esperto di politiche tecnologiche – ma, a meno che l’Europa non voglia essere una colonia economica degli Stati Uniti e della Cina, allora avremo bisogno di meno avvocati, politici, filosofi e burocrati che stabiliscano strategie e norme per l’AI e di più imprenditori, venture capitalist e ingegneri.
Da troppo tempo, gli europei non sono più protagonisti. È come una partita di calcio. In campo ci sono due squadre, una americana e una cinese. Invece di schierare la propria, gli europei hanno preferito recitare la parte dell’arbitro, che fischia i falli e mostra il cartellino giallo. L’arbitro può contribuire a decidere il risultato della partita, soprattutto se dirige male, ma non è mai lui a vincerla. Se vogliono vincere, gli europei devono mandare in campo la loro squadra“.

L’AI Act rischia dunque di trasformarsi in un reale svantaggio competitivo per le aziende europee?

Non secondo i fautori e sostenitori della bontà e del valore di questo Regolamento che – a sostegno della loro tesi – fanno osservare come, trattandosi di un insieme di regole trasversali che non si applicherà solo alle aziende europee, ma – di fatto – a chiunque si rapporti con il mercato UE, l’impatto e gli effetti dell’AI Act saranno tali da “costringere” produttori e fornitori di AI di ogni parte del mondo ad adeguarsi ad esso, a meno di non voler rinunciare a una fetta di mercato sostanziale quale, appunto, quello europeo.
Come peraltro già avvenuto nel caso del GDPR, in ossequio al noto effetto Bruxelles.

Va anche notato come – almeno in questa occasione – l’Europa non appaia come “la bella addormentata”, quella che – presa dal suo legiferare matto e disperato – non si accorge mai di quanto possa nuocere alle sue stesse imprese e alla loro concorrenza e competitività sul mercato.
L’AI Act, infatti, con l’intento di favorire e promuovere l’innovazione ed evitare il temuto effetto “freno a mano” della regolamentazione, prevede alcune norme ad hoc (ereditate dalla precedente proposta della Commissione UE relativa alla legge sull’Intelligenza Artificiale) pensate proprio per aziende, PMI e start-up.

Una di queste riguarda l’attuazione di opportuni spazi di sperimentazione normativa (regulatory sandbox) i cui obiettivi – come si legge nel testo della Commissione – dovrebbero essere la promozione dell’innovazione in materia di AI mediante la creazione di un ambiente controllato di sperimentazione e prova nella fase di sviluppo e precommercializzazione al fine di garantire la conformità dei sistemi di AI innovativi al presente Regolamento (ora AI Act, ndr.) e ad altre normative pertinenti dell’Unione e degli Stati membri, e il rafforzamento della certezza del diritto per gli innovatori e della sorveglianza e della comprensione da parte delle autorità competenti delle opportunità, dei rischi emergenti e degli impatti dell’uso dell’AI, nonché l’accelerazione dell’accesso ai mercati, anche mediante l’eliminazione degli ostacoli per le piccole e medie imprese (PMI) e le start-up.

E l’AI Act promette alle aziende – soprattutto nel caso di PMI e start-up, vero motore dell’innovazione ma con minori capacità di “autogestione normativa” – di non lasciarle brancolare in solitudine nel consueto buio del periodo post-regolamentazione, invitando gli Stati membri ad adottare le opportune iniziative di comunicazione e formazione delle competenze in materia di AI.
Al fine di promuovere e proteggere l’innovazione – precisa il suddetto testo – è importante che siano tenuti in particolare considerazione gli interessi dei fornitori di piccole dimensioni e degli utenti di sistemi di AI.
È a tal fine opportuno che gli Stati membri sviluppino iniziative destinate a tali operatori, anche relative all’alfabetizzazione in materia di AI, alla sensibilizzazione e alla comunicazione delle informazioni.
Gli Stati membri dovrebbero utilizzare i canali esistenti e, ove opportuno, istituire nuovi canali dedicati per la comunicazione con le PMI, le start-up, gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull’attuazione del Regolamento.

Dunque, premessa l’evidente necessità – su cui concordano praticamente tutti – di normare alcuni aspetti cosiddetti “ad alto rischio” dell’utilizzo dei sistemi di AI, se non altro, questa volta il legislatore sembra essersi accorto anche dell’importanza di non frenare lo sviluppo economico e la competitività delle aziende e delle start-up, studiando e prevedendo misure ad hoc – quali, ad esempio, regulatory sandbox e servizi di formazione delle competenze e di consulenza – per provare al tempo stesso a non rallentare il go to market e a garantire i diritti fondamentali dell’uomo.

Il dibattito di questi giorni è incentrato sul chiedersi se – con l’approvazione dell’AI Act – il legislatore abbia conseguito questo ambizioso obiettivo, riuscendo in qualche modo, per una volta, a superare il paradosso di Collingridge.

Probabilmente, però, è ancora presto per tirare le somme.
Perché l’errore che si sta facendo è considerare l’AI Act come un traguardo e non come punto di partenza:

“Dimentichiamoci di aver passato il traguardo e, piuttosto, sentiamoci sulla linea di start, ai blocchi di partenza, e iniziamo a correre per attuare davvero queste regole – afferma al proposito Guido Scorza, componente del Garante per la protezione dei dati personali -.

Dovremmo considerare queste regole come una scatola metodologica dentro la quale essere bravi a infilare una serie di verticali, perché l’AI è una tecnologia orizzontale che impatterà talmente tanti ambiti della nostra vita che è impossibile pensare che le sue regole siano tutte dentro l’AI Act.

La scommessa, quindi, è prendere il Regolamento, considerarlo un metodo di lavoro e infilarci dentro le discipline verticali: tutela dei consumatori, digitalizzazione della pubblica amministrazione, salute, sanità, giustizia”.

Una scommessa (ancora tutta) da vincere, però.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5