Nel maggio scorso sul sito del Parlamento Europeo è apparso un comunicato stampa che descriveva la proposta di un nuovo quadro giuridico europeo sullo sviluppo e l’uso dell’intelligenza artificiale.
MEPs substantially amended the list to include bans on intrusive and discriminatory uses of AI systems such as:
- “Real-time” remote biometric identification systems in publicly accessible spaces;
- “Post” remote biometric identification systems, with the only exception of law enforcement for the prosecution of serious crimes and only after judicial authorization;
- Biometric categorisation systems using sensitive characteristics (e.g. gender, race, ethnicity, citizenship status, religion, political orientation);
- Predictive policing systems (based on profiling, location or past criminal behaviour)
- Emotion recognition systems in law enforcement, border management, workplace, and educational institutions; and and educational institutions;
- Indiscriminate scraping of biometric data from social media or CCTV footage to create facial recognition databases (violating human rights and right to privacy).
Il Parlamento Europeo intenderebbe adottare un sistema di classificazione che determina il livello di rischio che le AI potrebbero rappresentare “per la salute e la sicurezza o per i diritti fondamentali di una persona”. Il quadro comprende quattro livelli di rischio: inaccettabile, alto, limitato e minimo. I sistemi di riconoscimento facciale (recentemente invocati dal ministro Piantedosi come misura per garantire maggiore sicurezza) sono classificati nel livello di rischio “inaccettabile”.
StartMagazine faceva il punto della situazione della legge Europea sull’Intelligenza Artificiale e spiegava la posizione del Garante italiano.
In occasione di un convegno tenutosi presso l’Università degli Studi di Padova, la vicepresidente del Garante, Ginevra Cerrina Feroni, si è espressa positivamente circa l’IA Act. “La scelta europea – ha spiegato – ha come stella polare quella di accompagnare l’innovazione tecnologica impedendo che diventi regressiva da un punto di vista sociale, di rendere la tecnologia uno strumento di promozione dei diritti e delle libertà e non invece strumento di discriminazione”.
Non sono mancate le reazioni dal mondo delle aziende: The Verge ha pubblicato una lettera aperta di molte aziende europee nella quale si sostiene che l’AI Act dell’UE potrebbe “mettere a repentaglio la sovranità tecnologica”.
I firmatari della lettera aperta affermano che l’AI Act, nel suo stato attuale, potrebbe sopprimere l’opportunità che la tecnologia AI offre all’Europa di “rientrare nell’avanguardia tecnologica”. Sostengono che le regole approvate sono troppo estreme e rischiano di minare le ambizioni tecnologiche del blocco invece di fornire un ambiente adatto per l’innovazione dell’IA. Una delle principali preoccupazioni segnalate dalle aziende riguarda le rigide regole della legislazione che si rivolgono specificamente ai sistemi di IA generativa, un sottoinsieme di modelli di IA che in genere rientrano nella designazione di “modello di base”. Ai sensi dell’AI Act, i fornitori di modelli di IA di base, indipendentemente dall’applicazione prevista, dovranno registrare il loro prodotto presso l’UE, sottoporsi a valutazioni del rischio e soddisfare i requisiti di trasparenza, come l’obbligo di divulgare pubblicamente tutti i dati protetti da copyright utilizzati per addestrare i loro modelli. La lettera aperta afferma che le aziende che sviluppano questi sistemi di IA di base sarebbero soggette a costi di conformità sproporzionati e rischi di responsabilità, il che potrebbe incoraggiare i fornitori di IA a ritirarsi completamente dal mercato europeo.
Dopo qualche mese su Il Sole 24 ore Daniela Della Rosa e Federico Criscuoli cercano di spiegare a che punto siamo con la proposta di legge europea:
Allo stato attuale, la proposta di legge è al centro del triplice negoziato tra Commissione europea, Parlamento europeo e Consiglio europeo. Una volta adottato, l’AI Act entrerà in vigore dopo 24 mesi. Questo vuol dire che, se si riuscirà a raggiungere entro fine anno un accordo finale sul testo del provvedimento, tale legge si applicherà, nella migliore delle ipotesi, alla fine del 2025 . Indipendentemente dalle tempistiche, è importante evidenziare che l’Unione europea è la prima al mondo ad aver adottato in modo quasi definitivo una legislazione che regolamenterà ampiamente i sistemi di AI e, anche se non si sta ancora parlando del testo definitivo, in quello della proposta si possono comunque comprendere molte delle preoccupazioni che le autorità pubbliche hanno nei confronti del futuro dell’intelligenza artificiale.
Commenta qui sotto e segui le linee guida del sito.