Banditi i sistemi che manipolano i comportamenti e la polizia predittiva, paletti per riconoscimento facciale e salute
Il principio base è la distinzione delle applicazioni dell’AI a seconda del livello di rischio che pongono. Una serie di utilizzi sono quindi banditi: i sistemi di “rating sociale” (sul modello di quello sperimentato in Cina), quelli che manipolano comportamenti o decisioni, quelli di polizia predittiva che segnalano la pericolosità di una persona prima che commetta un crimine. Gli algoritmi capaci di leggere le emozioni vengono vietati in scuole e luoghi di lavoro, ma saranno utilizzabili in contesti di polizia e immigrazione, come chiedevano i governi. La spunta il Parlamento sui sistemi di categorizzazione basati su informazioni sensibili — razza, religione, orientamento sessuale — : saranno banditi.
Ci sono poi le applicazioni ad “alto rischio”, quelle che si useranno nei settori della salute, del lavoro, dell’educazione, della giustizia, dove eventuali errori o discriminazioni “apprese” dagli algoritmi potrebbero danneggiare le persone. L’AI Act introduce prescrizioni per chi le sviluppa e chi le utilizza, come una valutazione dei rischi e la necessità di supervisione umana, in modo che le macchine non “decidano” da sole. Uno degli ultimi scogli superati è stato l’utilizzo dei sistemi di riconoscimento facciale, al confine tra sicurezza e sorveglianza. Il Parlamento — sollecitato da varie organizzazioni per i diritti — aveva proposto un bando completo, mentre i governi volevano ampie eccezioni per le forze di polizia. Il compromesso: potranno essere usati solo con autorizzazione del giudice e in circostanze definite come emergenze terroristiche, ricerca di vittime o di sospettati di crimini gravi. Nessun paletto invece nell’utilizzo militare dell’AI. Altro grande nodo sciolto in extremis è la regolazione dei grandi modelli di AI così potenti da prestarsi a molteplici utilizzi, come quello alla base di ChatGPT o quelli che stanno sviluppando gli altri big della Silicon Valley, da Google a Meta. Le regole saranno vincolanti: una vittoria del Parlamento, visto che i governi — in particolare Germania, Francia e Italia — avevano chiesto di limitarle a codici di condotta volontari, esito che certo non sarebbe dispiaciuto ai colossi digitali. Dunque questi modelli dovranno pubblicare documentazioni tecniche dettagliate, compresa una lista dei materiali usati per addestrare gli algoritmi che dovrebbe aiutare i produttori di contenuti a difendere il copyright. Necessario anche rendere riconoscibili — per scongiurare truffe o disinformazione — tutti i materiali creati dal-l’AI. I sistemi più potenti poi, che pongono “rischi sistemici”, dovranno produrre valutazioni dei pericoli, comunicando alla Commissione — che si doterà di un AI Office — eventuali incidenti. Le multe saranno salate, dall’ 1,5 al 7% del fatturato globale.
Una volta approvato, l’AI Act entrerà in vigore a tappe: dopo sei mesi le proibizioni, dopo dodici le norme sui sistemi ad alto rischio e sui più potenti, le ultime dopo due anni. I tempi serviranno per fissare i dettagli tecnici e alle aziende per adattarsi, anche se saranno incoraggiate ad adeguarsi prima. Trattandosi di un regolamento non ci sarà bisogno di recepimento dei Paesi. «Garantiamo un bilanciamento tra innovazione e protezione », dice Brando Benifei, europarlamentare del Pd e relatore del testo. Ma l’efficacia del compromesso finale resta tutta da verificare. Molti sostengono che una legge non può tenere il passo — o anticipare — una tecnologia in crescita esponenziale, spinta da capitali miliardari. L’alternativa, d’altra parte, è affidarsi all’etica delle società che la sviluppano. L’altra incognita riguarda la possibilità che i paletti danneggino l’innovazione in Europa, più che favorirla e creare un modello globale. L’arbitro non vince mai, si dice. Ma secondo tanti altri, viste le potenzialità dell’AI, un arbitro è necessario. Con la speranza che l’Europa, sempre prontissima a scrivere regole, riesca dove finora ha fallito: far crescere aziende a livello dei fuoriclasse americani.