Nel 2024, più precisamente dal 6 al 9 giugno, si terranno le elezioni dell’Unione Europea, durante le quali circa 400 milioni di persone esprimeranno la propria preferenza sulla direzione futura della comunità europea. Le elezioni tratteranno diversi temi, con particolare attenzione alla lotta al cambiamento climatico e alle politiche green per la transizione energetica, emersi con particolare evidenza lo scorso anno nel dibattito politico.
Tuttavia, il 2023 è stato anche l’anno di un altro fenomeno che in poco tempo è passato dall’essere fantascienza all’entrare a far parte della vita dei cittadini europei. Si tratta della diffusione esponenziale di strumenti basati sull’intelligenza artificiale, a disposizione anche degli utenti comuni. Dai Chat-Gpt a Midjouney e Dall-E2, che siano programmi di generazione di immagini o testi, molti di questi termini sono entrati ormai nel vocabolario comune e fanno parte della quotidianità di milioni di persone.
L’intelligenza artificiale sembra essere arrivata nelle case di tutti e si parla molto dei potenziali rischi ad essa legati. A questo proposito, l’Unione Europea si sta avventurando in acque inesplorate per quanto riguarda la regolamentazione di queste nuove tecnologie.
Proprio l’8 dicembre, un accordo definito storico è stato raggiunto a seguito di un negoziato durato 36 ore che ha coinvolto il Parlamento Europeo, il Consiglio e la Commissione. Si tratta dell’AI Act, ovvero una nuova legislazione che mira a regolamentare il campo dell’intelligenza artificiale in Europa, suddividendo in diverse categorie di rischio le diverse applicazioni di queste tecnologie.
Ad esempio, l’utilizzo di IA per sistemi di social scoring (cioè l’utilizzo di parametri per classificare le persone in base alle loro caratteristiche o comportamenti) o di manipolazione delle decisioni e comportamenti sarà direttamente bandito. Allo stesso modo, i sistemi di categorizzazione basati su informazioni sensibili come la razza, la religione o l’orientamento sessuale saranno vietati.
La categorizzazione prosegue con i sistemi considerati ad alto rischio o a rischio limitato. In base alla fascia di rischio, vi saranno diverse precauzioni che dovranno essere seguite dai provider dei servizi affinché questi possano essere utilizzati nell’Unione Europea. Tra queste limitazioni rientrano il rispetto per la trasparenza e valutazioni riguardo all’impatto dei sistemi sui diritti fondamentali, qualora questi ultimi siano stati lesi dall’utilizzo delle tecnologie in questione. Le nuove norme dovrebbero essere definitivamente approvate entro la fine dell’attuale legislatura, per poi essere implementate gradualmente a partire dal 2025.
Tuttavia, le critiche non sono mancate. Macron ha infatti criticato l’AI Act, accusandolo di limitare il progresso e lo sviluppo in Europa di tecnologie basate sull’intelligenza artificiale, di fatto lasciando l’Europa indietro rispetto a giganti tecnologici come Cina e Stati Uniti. Anche l’Italia e la Germania hanno mosso critiche simili, sottolineando come nel campo dell’intelligenza artificiale non vi sia affatto un pensiero unanime su come agire.
È interessante notare come l’intelligenza artificiale non sia solamente un tema centrale nelle politiche europee, ma anche una minaccia per le imminenti elezioni. Secondo quanto riportato da Politico, l’Agenzia dell’Unione Europea per la Cybersecurity, le elezioni del 2024 sarebbero a rischio a causa del dilagare di chatbots e deepfakes basati sull’intelligenza artificiale, i quali possono facilmente influenzare i cittadini prima del voto presentando informazioni in modo convincente che si rivelano però essere completamente false.
Si parla quindi della necessità di contrastare la diffusione di disinformazione generata con intelligenza artificiale. Anche per questo motivo, l’intelligenza artificiale sembra essere entrata di fatto nell’agenda europea ed è molto probabile che di qui in avanti se ne sentirà parlare sempre di più.