
Il Consiglio dell’Unione Europea ha dato il via libera definitivo all’AI Act, una legislazione che entrerà in vigore tra due anni e che disciplina lo sviluppo, l’uso e la commercializzazione dei sistemi di intelligenza artificiale (IA) in Europa.
In questo articolo: “A-9-2023-0188: non è un personaggio di Guerre Stellari” avevamo dato conto dell’approvazione (il 13 marzo 2024) da parte del Parlamento Europeo della relativa legge.
La legge segue un approccio basato sul rischio: maggiore è il rischio di danni alla società, più severe saranno le regole.
I sistemi di IA destinati alla giustizia e ai processi democratici sono classificati come ad alto rischio per il loro potenziale impatto sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo.
Questi rischi includono i sistemi utilizzati dalle autorità giudiziarie per assistere nella ricerca e interpretazione dei fatti e delle leggi.
La legge vieta l’uso di:
- social scoring e tecniche manipolative: non sarà possibile analizzare le persone da parte dei sistemi di intelligenza artificiale basandosi su comportamenti o caratteristiche personali, così come tecniche che mirano a manipolare il comportamento umano. Esempi di tecniche maipolative sono: lo sfruttamento delle vulnerabilità psicologiche, il condizionamento del comportamento, la missinformation ed il c.d. dark patterns ovvero interfacce utente progettate per confondere o ingannare l’utente a compiere azioni non intenzionali (ad esempio, pulsanti nascosti o layout che inducono l’utente a fare clic su opzioni che non avrebbe scelto volontariamente).
- pratiche di polizia predittiva: ovvero “l’insieme di attività e di forze impiegate nello studio e nell’applicazione di metodi statistici volti ad anticipare i crimini grazie alla combinazione di diversi tipi di dati, tra cui quelli relativi a notizie di reati precedentemente commessi o i profili dei sospettati presenti nei siti di relazione sociale“(Treccani).
Come non ricordare The Minority Report (il film, ma sopratutto la novella di P.K. Dick pubblicata nel 1956 sulla rivista (Fantastic Universe). - riconoscimento delle emozioni in ambito lavorativo e scolastico.
- In ambito lavorativo distinguiamo:
- Monitoraggio delle Prestazioni: Utilizzare IA per valutare il livello di stress, motivazione o soddisfazione dei dipendenti attraverso l’analisi delle espressioni facciali o del tono di voce durante le riunioni o interazioni lavorative.
- Selezione del Personale: Applicare tecnologie di riconoscimento delle emozioni durante i colloqui di lavoro per interpretare la sincerità, l’entusiasmo o la fiducia dei candidati.
- Valutazione della Soddisfazione: Monitorare continuamente le emozioni dei dipendenti per individuare segni di insoddisfazione o burnout e intervenire tempestivamente.
- In ambito scolastico:
- Interazioni Didattiche: Analizzare le reazioni emotive degli studenti durante le lezioni per adattare l’insegnamento in tempo reale, migliorando l’efficacia dell’apprendimento.
- Valutazione delle Prestazioni: Utilizzare IA per capire meglio il coinvolgimento e lo stato emotivo degli studenti durante le attività scolastiche, rilevando potenziali problemi come ansia o disinteresse.
- Supporto Psicologico: Monitorare le emozioni degli studenti per identificare chi potrebbe avere bisogno di supporto psicologico o di interventi di consulenza.
- In ambito lavorativo distinguiamo:
- L’uso del riconoscimento facciale è permesso solo alle forze dell’ordine sotto condizioni rigorose. Questo tema meriterebbe un articolo e degli approfondimenti specifici che sono sicuro saranno analizzati da persone più competenti del sottoscritto.
In generale possiamo dire che l’uso di sistemi di identificazione biometrica remota in tempo reale in spazi pubblicamente accessibili per scopi di applicazione della legge è generalmente vietato.
Le eccezioni riguardano:- Ricerca mirata di vittime specifiche di rapimenti, tratta di esseri umani e sfruttamento sessuale.
- Prevenzione di una minaccia specifica, sostanziale e imminente alla vita o alla sicurezza fisica delle persone, o di un attacco terroristico.
- Localizzazione o identificazione di una persona sospettata di aver commesso un reato per condurre un’indagine penale, un’azione penale o eseguire una pena per reati punibili con una pena detentiva di almeno quattro anni
Tali eccezioni sono poi sottoposte a requisiti di autorizzazione, Salvaguardie e limiti e valutazione e rapporti.
Per garantire l’applicazione corretta della legge, sono stati istituiti vari organi di governo, tra cui un ufficio AI all’interno della Commissione Europea, un panel scientifico di esperti indipendenti, un comitato per l’AI con rappresentanti degli Stati membri e un forum consultivo per le parti interessate.
Anche i sistemi di IA per la risoluzione alternativa delle controversie sono considerati ad alto rischio se gli esiti producono effetti giuridici. L’uso di IA può supportare i giudici ma non deve sostituirli, mantenendo il processo decisionale sotto controllo umano.
I sistemi di IA per compiti amministrativi accessori (cancelleria?) che non influiscono direttamente sull’amministrazione della giustizia, non sono considerati ad alto rischio.
Sono vietati i sistemi di IA che attribuiscono un punteggio sociale alle persone (social scoring), poiché possono portare a discriminazione e violare i diritti di dignità e non discriminazione.
Merita di essere fatta una brevissima parentesi: in Cina si chiama sistema di credito sociale e serve a monitorare cittadini, enti ed imprese attraverso un complesso sistema di controllo e valutazione, connesso a misure premiali e sanzionatorie.
Vi voglio segnalare un interssante articolo pubblicato addirittura nel giugno del 2019 su Wired UK: The complicated truth about China’s social credit system.
Questa pratica, con profonde e diverse distinzioni e sfumature, è stata applicata anche nel Regno Unito (che, ça va sans dire, non fa più parte dell’Unione Eropea), dove aziende come Experian tracciano i pagamenti dei debiti per assegnare un punteggio utilizzato da prestatori e fornitori di mutui. Anche in ambito sociale vi sono sistemi di punteggio come su eBay e Uber, dove utenti e conducenti si valutano reciprocamente.
Il sistema di credito sociale della Cina è profondamente diverso, comunque, perché si tratta di un progetto in evoluzione che combina elementi di controllo sociale e sorveglianza.
I modelli di IA generali senza rischi sistemici saranno soggetti a requisiti limitati, mentre quelli con rischi sistemici dovranno rispettare regole severe. Sono previste multe variabili in base alla violazione e alla dimensione dell’azienda, da un minimo di 7,5 milioni di euro fino a 35 milioni di euro o il 7% del fatturato globale.
L’AI Act sarà pubblicato nella Gazzetta Ufficiale dell’UE e entrerà in vigore venti giorni dopo.
In parallelo, il Governo italiano ha presentato un disegno di legge per l’introduzione di disposizioni sull’intelligenza artificiale, con un investimento di 1 miliardo di euro, riservando ai magistrati la decisione finale su interpretazione della legge, valutazione dei fatti e delle prove.
