Le 7 cose che non si possono fare con l’intelligenza artificiale. Cosa dice l’AI Act
L’AI Act europeo stabilisce cosa non si può fare con l’intelligenza artificiale: manipolare gli utenti, classificare le persone, prevedere crimini o raccogliere dati biometrici. Ecco le 7 pratiche considerate un rischio inaccettabile.

Il dibattito sulla sicurezza dell’intelligenza artificiale si è riacceso con il recente annuncio di OpenAI: dal mese di ottobre ChatGPT introdurrà il parental control, permettendo ai genitori di monitorare le interazioni dei figli e ricevere notifiche in caso di disagio. Una misura che arriva dopo un grave caso giudiziario negli Stati Uniti (una coppia di genitori ha denunciato che il chatbot avrebbe incoraggiato il figlio adolescente a togliersi la vita) e che conferma l’urgenza di regole chiare a tutela delle persone.
In Europa, un passo decisivo è stato compiuto con l’approvazione del Regolamento sull’Intelligenza Artificiale (AI Act), il 13 giugno 2024. Dal 2 febbraio 2025 sono ufficialmente vietati i sistemi di IA considerati un rischio inaccettabile, in quanto potenzialmente dannosi per la società e i diritti fondamentali.
Torna all'inizioUn regolamento per proteggere i cittadini
La crescente diffusione dell’intelligenza artificiale ha portato vantaggi significativi, ma anche rischi concreti per i diritti fondamentali dei cittadini europei. L’AI Act introduce regole precise per garantire uno sviluppo etico e sicuro della tecnologia.
Il regolamento classifica i sistemi di intelligenza artificiale in quattro livelli di rischio: inaccettabile, alto, limitato e minimo. Per quelli con rischio inaccettabile, il divieto è totale dal 2 febbraio 2025, indipendentemente dal fatto che fossero già presenti sul mercato.
Le sanzioni previste in caso di violazioni sono molto severe e uniformi in tutta Europa e possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo dell’azienda.
Inoltre ogni Stato membro deve designare un’autorità nazionale di vigilanza: in Italia l’Agenzia per l’Italia Digitale (AgID) sarà responsabile di promuovere lo sviluppo dell’intelligenza artificiale curando la valutazione, l’ accreditamento e il monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale, mentre l’Agenzia per la cybersicurezza nazionale (ACN) sarà responsabile per la vigilanza e le attività ispettive e sanzionatorie.
Torna all'inizioLe pratiche vietate di intelligenza artificiale
Di seguito riportiamo, con esempi concreti forniti dalla Commissione Europea, tutte le pratiche di IA che l’AI Act ha messo al bando.
1. Manipolazione dannosa e sfruttamento delle vulnerabilità
Sono vietati i sistemi che manipolano le persone attraverso tecniche subliminali o ingannevoli, oppure che sfruttano vulnerabilità legate a età, disabilità o condizioni socio-economiche.
Esempi:
- pubblicità subliminale con IA: un sistema che mostra messaggi impercettibili per condizionare acquisti senza che il consumatore ne sia consapevole;
- manipolazione emotiva: un assistente virtuale che sfrutta la solitudine degli utenti rendendoli dipendenti.
- videogiochi che creano dipendenza, in particolare nei minori, regolando ricompense e tempi di attesa;
- chatbot ingannevoli che si spacciano per amici o familiari per estorcere dati o denaro;
- slgoritmi che individuano persone in difficoltà economica per proporre prestiti a tassi esorbitanti.
2. Social scoring
È vietata la classificazione delle persone sulla base di comportamenti sociali o caratteristiche personali, soprattutto se vengono usate informazioni provenienti da contesti non correlati o se il risultato porta a trattamenti ingiusti.
Esempi:
- sistemi governativi di credito sociale che limitano l’accesso a servizi in base al punteggio;
- algoritmi aziendali che valutano i dipendenti in base a comportamenti privati, come post sui social;
- sistemi che decidono l’accesso a benefici sociali basandosi su dati irrilevanti (es. cronologia acquisti);
- punteggi attribuiti agli immigrati in base a religione o origine socio-economica.
3. Predizione di reati individuali
Non si può usare l’intelligenza artificiale per prevedere la probabilità che un individuo commetta un crimine basandosi solo sul suo profilo personale o tratti caratteriali.
Esempi:
- software che predice criminalità basandosi su etnia, residenza o livello di istruzione;
- algoritmi che classificano ex-detenuti come “pericolosi” senza fatti oggettivi;
- sistemi di sorveglianza che selezionano sospetti solo analizzando comportamenti sui social.
Eccezione: l’intelligenza artificiale può supportare le forze dell’ordine se la valutazione si basa su fatti verificabili relativi ad attività criminali pregresse.
4. Raccolta massiva di immagini facciali
È vietata la raccolta indiscriminata di immagini del volto tramite web o videosorveglianza per costruire database di riconoscimento facciale.
Esempi:
- scraping di foto dai social per creare basi dati biometriche senza consenso;
- telecamere che registrano e conservano immagini di tutti in uno spazio pubblico senza base legale.
5. Riconoscimento delle emozioni
L’uso dell’intelligenza artificiale per rilevare emozioni in contesti lavorativi o educativi è vietato, salvo eccezioni mediche o di sicurezza.
Esempi:
- software che analizzano espressioni facciali e tono di voce dei dipendenti per misurarne l’impegno;
- sistemi nelle scuole che monitorano la motivazione degli studenti durante le lezioni.
Eccezioni: applicazioni in ambito medico o di sicurezza, come il monitoraggio dello stress nei piloti o della fatica nei conducenti.
6. Categorizzazione biometrica di caratteristiche sensibili
Non è consentito usare l’intelligenza artificiale per dedurre tratti sensibili come razza, religione, opinioni politiche o orientamento sessuale.
Esempi:
- sistemi che classificano le persone in base all’aspetto fisico associandolo a ideologie politiche;
- software che pretendono di dedurre l’orientamento sessuale dal volto o dal comportamento online;
- filtri biometrici in aeroporti che discriminano in base a caratteristiche sensibili.
Eccezione: l’uso di database biometrici legalmente raccolti per applicazioni di sicurezza.
7. Identificazione biometrica remota
È vietato l’uso di sistemi di riconoscimento facciale in tempo reale negli spazi pubblici per finalità di ordine pubblico.
Esempi:
- telecamere che scansionano automaticamente i volti in piazze pubbliche senza autorizzazione;
- identificazioni di massa in eventi sportivi confrontando i volti con database non regolamentati;
- monitoraggio dei partecipanti a manifestazioni e proteste da parte dei governi.
Eccezioni: possibili solo in casi specifici e con autorizzazione preventiva, come la ricerca di persone scomparse, la prevenzione di attentati terroristici imminenti o l’individuazione di sospetti di reati gravi.
Torna all'inizioPerché questa regolamentazione è fondamentale
L’AI Act rappresenta un passo cruciale per garantire che l’intelligenza artificiale sia utilizzata in modo sicuro e rispettoso dei diritti fondamentali. Vietare pratiche di manipolazione, discriminazione e sorveglianza ingiustificata è essenziale in una società sempre più digitale.
Quando le eccezioni consentono l’uso di sistemi altrimenti vietati, devono essere rispettati obblighi rigorosi:
- valutazione preventiva dell’impatto sui diritti fondamentali.
- autorizzazione da parte di un’autorità giudiziaria o indipendente.
- registrazione ufficiale dei sistemi autorizzati.
- notifica alle autorità dopo ogni utilizzo.