Dall’AI Act, il primo regolamento europeo sull’intelligenza artificiale, arrivano divieti, obblighi e multe miliardarie

FVG – Quanti hanno visto un video deepfake così realistico da sembrare vero? Dietro ogni interazione con un’intelligenza artificiale si nasconde un mondo complesso di algoritmi, dati e, ora, anche di regole. L’Europa ha deciso di fare qualcosa che nessuno al mondo aveva ancora tentato: mettere nero su bianco cosa si può e cosa non si può fare con l’IA.

La nascita dell’AI Act

Il primo regolamento al mondo, l’AI Act, è stato approvato dal Parlamento Europeo nel marzo 2024. Qualcuno ha parlato di rivoluzione, altri di burocrazia inutile. Si tratta del primo tentativo concreto di regolamentare un settore che fino a ieri correva libero. Il principio è semplice: più un sistema di intelligenza artificiale è rischioso per i diritti e la sicurezza delle persone, più deve essere controllato.

Divieti e regole per proteggere i cittadini

Ci sono sistemi di IA che l’Europa ha bandito. Niente manipolazione subliminale: non si possono usare intelligenze artificiali per condizionare il comportamento delle persone sfruttando vulnerabilità psicologiche. Vietato anche il social scoring governativo, quella pratica dove lo Stato dà un punteggio in base al comportamento. Il riconoscimento facciale in tempo reale negli spazi pubblici è vietato, ma con eccezioni per le forze dell’ordine.
Tutto corretto, perché i modelli di IA generativa devono rispettare obblighi di trasparenza: dire chiaramente su quali dati sono stati addestrati e rispettare il diritto d’autore. I modelli più potenti hanno obblighi ancora più stringenti: fare test per verificare che non possano essere usati per scopi dannosi.

Sanzioni milionarie

Le multe fanno tremare. Se violi le regole più gravi, puoi prenderti una multa fino a 35 milioni di euro o il 7% del fatturato globale annuo. Per un colosso come Google o Microsoft, il 7% del fatturato sono cifre astronomiche. L’idea è che le sanzioni devono far male davvero, altrimenti diventano solo un costo da mettere in bilancio.

Chi controlla chi?

L’AI Act prevede un Ufficio europeo per l’IA, autorità nazionali nei singoli Stati membri, un Comitato europeo per coordinare il tutto. In Italia, l’AgID (Agenzia per l’Italia Digitale) e l’ACN (Agenzia per la Cybersicurezza Nazionale) sono le autorità competenti. Ma le autorità pubbliche riusciranno a stare al passo con le Big Tech che hanno budget illimitati e ingegneri tra i migliori al mondo?

Cosa cambierà nella vita quotidiana

Cosa cambierà davvero? In teoria, se interagite con un chatbot questo dovrà subito chiarire di non essere umano, così come i video deepfake dovranno essere etichettati. Tuttavia, tra ciò che dovrebbe essere e ciò che sarà, c’è spesso di mezzo il mare.

Un equilibrio difficile

C’è poi chi dice che il regolamento è troppo complesso e rischia di soffocare l’innovazione, altri sostengono che sia troppo debole. Alcuni obblighi importanti scatteranno solo nel 2027: anni di rodaggio, di aggiustamenti, probabilmente di cause legali.

La dimensione geopolitica

E poi c’è la questione geopolitica: l’Europa fa da pioniera, ma se Stati Uniti e Cina continuano a correre senza regole, le aziende europee rischiano di essere svantaggiate.
E dunque, come cantava Lucio Battisti: “Io vorrei… non vorrei… ma se vuoi… come può uno scoglio arginare il mare…”

Forse l’intelligenza artificiale è una forza troppo potente e in continua evoluzione per essere davvero contenuta da regole e norme.

Enrico Sgariboldi

Copyright notice

© 2025 Enrico Sgariboldi (Author) – Testo registrato su blockchain Lutinx a tutela da riproduzioni non autorizzate. Per info: websgari@gmail.com

Condividi