20
Mar
2024

Punto e a capo n. 47

5 news di tecnologia (edizione speciale) – rubrica di Claudia Giulia Ferrauto

Approvazione dell’AI Act nell’Unione Europea

Questa settimana ha segnato un passo significativo nell’ambito della regolamentazione dell’intelligenza artificiale nell’Unione Europea con l’approvazione dell’AI Act. Questo atto rappresenta uno sforzo per stabilire regole e normative chiare sull’uso dell’IA, soprattutto per quanto riguarda i sistemi ad alto rischio, come quelli impiegati nei settori della sanità, del trasporto e della giustizia. L’AI Act mira a garantire la trasparenza e la responsabilità nell’utilizzo di tali tecnologie, stabilendo divieti e obblighi specifici. 

Tuttavia, come dicevo giorni fa, le critiche non sono mancate, poiché alcune parti ritengono che l’atto non sia abbastanza audace, poiché non affronta la sorveglianza di massa negli spazi pubblici e consente varie forme di sorveglianza e profilazione, il che potrebbe avere gravi conseguenze.

Tra le voci critiche c’è poi anche chi ritiene che questa strada normativa sia completamente sbagliata (QUI).

Quando e come entra in vigore l’AI act? 

Lo spiegavo la scorsa settimana qui

L’entrata in vigore dell’AI Act avverrà 20 giorni dopo la sua pubblicazione nella Gazzetta Ufficiale. I divieti previsti saranno applicati dopo 6 mesi, mentre gli obblighi sui modelli di AI entreranno in vigore 1 anno dopo. Tutte le altre norme saranno operative dopo 2 anni, ad eccezione della classificazione dei sistemi ad alto rischio, per i quali la valutazione di conformità da parte di terzi sarà ritardata di ulteriori 12 mesi.

Ma cosa cambierà di preciso con l’AI act? Guardiamo in breve alcuni dei passaggi principali: 

Alcuni usi dell’intelligenza artificiale verranno vietati entro la fine dell’anno. La norma pone infatti delle restrizioni sui casi d’uso dell’IA che rappresentano un rischio elevato per i diritti fondamentali delle persone, come nel settore sanitario, dell’istruzione e della polizia (saranno messi fuori legge entro la fine dell’anno). 

  • L’AI act vieterà anche alcuni usi che si ritiene rappresentino un “rischio inaccettabile” e coinvolgono casi piuttosto ambigui, come i sistemi di intelligenza artificiale che utilizzano tecniche subliminali/manipolative o ingannevoli per distorcere il comportamento e compromettere il processo decisionale, o sfruttare le persone vulnerabili. L’AI Act vieta inoltre i sistemi che deducono caratteristiche sensibili come le opinioni politiche o l’orientamento sessuale di qualcuno. Qui sarà interessante capire i parametri esatti che stabiliscono in modo inequivocabile, volta per volta, come sarà determinata e realizzata la limitazione/divieto.
  • Sarà vietata anche la creazione di database di riconoscimento facciale tramite  lo scraping di Internet (alla Clearview AI per intenderci). Tuttavia le forze dell’ordine possono ancora utilizzare dati biometrici e software di riconoscimento facciale nei luoghi pubblici per combattere crimini gravi, come terrorismo o rapimenti, cose che non possono essere previste per un tempo e un luogo precisi e che determinano quindi un perimetro di applicazione troppo lasco e labile. Per questo alcune organizzazioni per i diritti civili, come Access Now, hanno definito l’AI Act un “fallimento per i diritti umani” perché non ha vietato completamente casi controversi di utilizzo dell’IA come il riconoscimento facciale. E mentre le aziende e le scuole non sono autorizzate a utilizzare software che pretendono di riconoscere le emozioni delle persone, si potrà farlo se è per ragioni mediche o di sicurezza. Quindi anche qui il confine è labile, ammesso che esista davvero. 
  • Sarà reso evidente quando interagisci con un sistema AI. Le aziende tecnologiche dovranno etichettare i deepfake e i contenuti generati dall’intelligenza artificiale e avvisare le persone quando interagiscono con un chatbot o un altro sistema di intelligenza artificiale. Peccato che le etichette in questione siano ancora una tecnologia sperimentale e facile da manomettere e sarà necessario molto lavoro per rendere affidabili le tecniche di tag-AI e costruire quindi uno standard funzionale ad ampio spettro a livello di settore. 
  • I cittadini dell’UE potranno presentare reclami sui sistemi di intelligenza artificiale quando sospettano di essere stati danneggiati da uno di essi e potranno ricevere spiegazioni sul motivo per cui i sistemi di intelligenza artificiale hanno preso le decisioni che hanno preso. Ovviamente questo richiederà che i cittadini abbiano un buon livello di istruzione e consapevolezza n materia di intelligenza artificiale.
  • Le aziende che si occupano di intelligenza artificiale dovranno essere più trasparenti. Le aziende di intelligenza artificiale che sviluppano tecnologie in settori “ad alto rischio”, come le infrastrutture critiche o l’assistenza sanitaria, avranno nuovi obblighi quando la legge entrerà interamente e pienamente in vigore (tra circa tre anni). Questi includono una migliore governance dei dati, la garanzia del controllo umano e la valutazione di come questi sistemi influenzeranno i diritti delle persone. Le aziende di intelligenza artificiale che stanno sviluppando “modelli di intelligenza artificiale per scopi generali”, come i modelli linguistici, dovranno anche creare e conservare la documentazione tecnica che mostri come hanno costruito il modello, come rispettano la legge sul copyright e pubblicare un riepilogo disponibile al pubblico di quali dati di addestramento sono andati a buon fine. nell’addestramento del modello di intelligenza artificiale. 

You may also like

Punto e a capo n. 50
Punto e a capo n. 49
Punto e a capo n. 48
Europa sì, ma quale Europa?

Leave a Reply