Il canale Youtube Ciao Internet di Matteo Flora presenta un video dal titolo “Utilizzi VIETATI della AI secondo l’AI Act“, nel quale, dopo un contributo video di Marilù Capparelli, Direttore degli Affari Legali di Google EMEA, l’autore parla con Giuseppe Vaciago, di 42 Law Firm, dell’impatto che il Regolamento Europeo sull’Intelligenza Artificiale (cosiddetto AI Act) potrebbe avere sulle aziende europee e sul loro sviluppo futuro.
Durante la conversazione Flora e Vaciago analizzano l’intervento di Marilù Capparelli, la quale ricorda alcune innovazioni estremamente utili ottenute con l’implementazione dell’IA in campi quali la ricerca biomedica, per lo sviluppo di nuovi farmaci, o la biotecnologie, per la progettazione di enzimi in grado di degradare le plastiche e ridurre il loro impatto per l’inquinamento ambientale.
Il Regolamento ha un approccio definito come “basato sul rischio”: questo implica che le aziende che sviluppano sistemi di IA non hanno divieti (salvo per alcune pratiche, per le quali il divieto di utilizzo è entrato in vigore dal 2 febbraio 2025), ma devono calcolare accuratamente il rischio di implementare nei propri sistemi di IA pratiche definite “ad alto e medio rischio”, in base agli impatti potenziali sulla società.
In particolare nel regolamento vengono identificate alcune pratiche vietate. Esse sono:
- la Manipolazione comportamentale, effettuata tramite tecniche subliminali e neuromarketing;
- il Social scoring (sistema di IA che valuta e classifica le persone in base al loro comportamento sociale), riconosciuto come discriminatorio soprattutto se associato agli strumenti di selezione automatizzata nel settore HR;
- il Riconoscimento delle emozioni in ambiti lavorativi e scolastici, pratica che evidenzia rischi per la privacy e la tutela dei lavoratori;
- la Categorizzazione biometrica basata su dati sensibili: questo è un divieto che mira a impedire l’uso dell’IA per discriminazioni basate su etnia, religione o orientamento politico;
- le Previsioni criminali basate esclusivamente sull’IA (come in Minority Report, ma con le IA al posto dei Precog);
- il Riconoscimento biometrico in tempo reale in spazi pubblici , divieto che prevede alcune eccezioni per le forze dell’ordine.
Nel video, inoltre, gli autori valutano i possibili modi con cui le aziende possono adeguarsi alla normativa, suggerendo degli approcci basati su self-assessment e audit interni che permettano di valutare costantemente la conformità alla normativa europea.
la domanda è Cosa fare nel momento stesso in cui si ci si trova davanti a un rischio di questo tipo e il consiglio è quello di fare un Assessment che può essere sia autonomo quindi cosiddetto Self Assessment sia invece attraverso un consulente che in qualche modo possa certificare il fatto che io mi sia preoccupato di avere questo sistema di intelligenza artificiale e che questo sistema di intelligenza artificiale non rappresenti una pratica vietata
Verso la fine del video viene anche evidenziato quale rischio corrano le aziende che non si conformano al Regolamento:
Cosa rischio? Si rischiano delle sanzioni molto elevate: fino a 35 milioni di euro e il 7% del fatturato; ricordiamo che l’ultima volta era 4%. Il 7% del fatturato globale, fatturato e non utili ricorda, e fatturato globale su un Meta, su un Google su una multinazionale del ferro, chiunque sia, è tanto, sono cifre importanti
![]()


Commenta qui sotto e segui le linee guida del sito.