Il 9 dicembre 2023 il Parlamento, il Consiglio e la Commissione dell’Unione Europea hanno raggiunto un accordo politico sull’AI Act, uno dei primi e più strutturati strumenti legislativi al mondo per regolamentare l’utilizzo dell’Intelligenza Artificiale e limitare i rischi che da essa derivano. Il testo definitivo della legge deve essere ancora redatto dai tecnici e approvato in via definitiva. Entrerà del tutto in vigore, se non ci saranno intoppi, entro i prossimi due anni.
Che cosa contiene l’accordo. L’AI Act mette al centro la tutela dei diritti e delle libertà dell’individuo e obbliga le aziende che sviluppano IA a dimostrare che i loro prodotti, e il modo in cui ci sono arrivati, non mettano a rischio le persone e non violino la loro integrità. Il regolamento copre molti ambiti di applicazione delle IA, ma i punti più salienti riguardano le limitazioni ai sistemi di identificazione biometrica e l’obbligo di trasparenza per i sistemi tecnologici su cui sono basati chatbot come ChatGPT.
Che cosa non si potrà fare. Non sarà consentito ricorrere all’IA per analizzare dati biometrici sensibili: saranno cioè banditi i sistemi di riconoscimento biometrico che identifichino le persone basandosi su caratteristiche come orientamento sessuale, etnia, religione, idee politiche – una norma che vuole prevenire discriminazioni e abusi. Non si potranno pescare indiscriminatamente fotografie da Internet o da telecamere a circuito chiuso per addestrare sistemi di riconoscimento facciale, per la tutela della privacy delle persone e per scongiurare la sorveglianza di massa.
Le forze dell’ordine potranno usare i sistemi di riconoscimento biometrico solo in casi eccezionali, come la minaccia di un attacco terroristico imminente, la ricerca di persone sospettate di reati gravi o di vittime di gravi crimini.
In difesa dei più vulnerabili. In base all’AI Act sarà vietato usare l’IA per il riconoscimento delle emozioni delle persone sui luoghi di lavoro e nelle scuole (per proteggere la libertà emotiva degli individui) né sarà consentita la pratica del social scoring (“punteggio sociale”), ossia l’utilizzo dell’IA per assegnare un punteggio agli individui basandosi su loro comportamenti o caratteristiche, usando poi questi dati per far accedere o meno i cittadini a loro diritti – una strategia di controllo delle libertà individuali attuata in via crescente in Cina. Non si potranno usare sistemi di IA che mirino a sfruttare le vulnerabilità delle persone, come l’età o la disabilità, o la situazione sociale o economica; non sarà consentito lo sviluppo di IA che mirino a manipolare anche in forma non esplicita il comportamento delle persone.
Stretta a ChatGPT. L’AI Act stabilisce che i sistemi di IA ad alto impatto, cioè con notevole potenza di calcolo come GPT-4 di OpenAI debbano assicurare trasparenza nei processi di addestramento e condividere la documentazione tecnica dei materiali usati prima di essere immessi sul mercato. Questi modelli saranno anche obbligati a rendere riconoscibili i contenuti che producono, per contrastare il rischio di truffe e disinformazione. Misure che dovrebbero allo stesso tempo aiutare i produttori a difendere i diritti d’autore delle loro creazioni.
Le aziende che non rispetteranno queste regole potranno essere multate con sanzioni ammontanti fino al 7% del loro fatturato globale.
Fonte Focus.it