AI Act: ufficiale la regolamentazione dell’Intelligenza Artificiale. Con la recente approvazione dell’AI Act, l’Europa si posiziona come pioniere nella regolamentazione dell’intelligenza artificiale (IA). Questo blog esplorerà le sfide e le negoziazioni che hanno portato alla creazione del primo decreto globale sull’IA, mettendo in luce le implicazioni per il futuro dello sviluppo tecnologico e del digital marketing.
AI Act: ufficiale la regolamentazione dell’Intelligenza Artificiale
AI Act: ufficiale la regolamentazione dell’Intelligenza Artificiale. Infatti dopo estenuanti negoziati di 36 ore, il Parlamento e il Consiglio europeo hanno raggiunto un accordo storico sull’AI Act. Questa legge, la prima del suo genere al mondo, rappresenta un passo significativo verso la regolamentazione complessiva dello sviluppo e dell’uso dell’IA nei 27 Stati membri dell’Unione Europea.
AI Act: Il Braccio di Ferro sulla Sorveglianza e i Modelli Fondativi dell’AI
Uno dei punti più controversi durante i negoziati è stato l’uso dell’IA a fini di sorveglianza da parte delle forze dell’ordine. Mentre il Parlamento propendeva per un blocco totale, il Consiglio favoriva un approccio più permissivo. Questo scontro ha dominato gran parte delle discussioni, coinvolgendo anche oltre 60 esperti in privacy e diritti digitali che hanno sottolineato l’importanza di restrizioni etiche.
I Punti Critici: Riconoscimento Biometrico e Modelli Fondativi dell’Intelligenza Artificiale
AI Act: ufficiale la regolamentazione dell’Intelligenza Artificiale e fin qui, ci siamo. Ma quali sono i punti critici attenzionabili? Il riconoscimento biometrico in tempo reale è stato al centro delle controversie, ma l’accordo finale ha vietato questa pratica, consentendola solo in circostanze specifiche come minacce terroristiche, ricerca di vittime e persecuzione di crimini gravi. Allo stesso modo, la regolamentazione dei modelli fondativi, come GPT-4 di OpenAI, è stata oggetto di accese discussioni. La legge distingue tra AI ad alto impatto e altri modelli, imponendo regole più rigide per i primi.
AI Act: i principali divieti per le App con Intelligenza Artificiale
Il Parlamento europeo segnala che, consapevole della possibile minaccia ai diritti dei cittadini e alla democrazia derivante da alcune applicazioni dell’intelligenza artificiale, i legislatori hanno convenuto di proibire i seguenti elementi:
- i sistemi di classificazione biometrica che impiegano informazioni sensibili (come convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
- la raccolta indiscriminata di immagini del volto da fonti online o da registrazioni di telecamere a circuito chiuso al fine di creare database per il riconoscimento facciale;
- il riconoscimento delle emozioni sul luogo di lavoro e nelle istituzioni scolastiche.
Inoltre, secondo il testo, saranno vietati anche “sistemi di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio; intelligenza artificiale utilizzata per sfruttare le vulnerabilità delle persone dovute alla loro età, disabilità, situazione sociale o economica”.
AI Act: ufficiale la regolamentazione dell’Intelligenza Artificiale. Il punto sui Sistemi ad alto rischio.
L’accordo sull’Artificial Intelligence Act prevede impegni specifici per i sistemi di intelligenza artificiale considerati “ad alto rischio” a causa della loro potenziale capacità di causare danni significativi alla salute, sicurezza, diritti fondamentali, ambiente, democrazia e stato di diritto. I negoziatori del Parlamento europeo sono riusciti ad includere, tra gli altri requisiti, una valutazione obbligatoria dell’impatto sui diritti fondamentali, estendibile anche ai settori assicurativo e bancario. Inoltre, i sistemi di intelligenza artificiale utilizzati per influenzare gli esiti delle elezioni e il comportamento degli elettori sono anch’essi classificati come ad alto rischio. La nota afferma che i cittadini avranno il diritto di presentare reclami riguardo ai sistemi di intelligenza artificiale e di ottenere spiegazioni sulle decisioni basate su tali sistemi a rischio elevato che influenzano i loro diritti.
Quali sono i prossimi passi?
Mentre l’accordo rappresenta un passo avanti, il lavoro sull’AI Act non è concluso. Oltre ai dettagli tecnici da definire, le associazioni per i diritti digitali invitano alla cautela, sottolineando la necessità di leggere attentamente il testo completo per identificare eventuali falle che potrebbero favorire pratiche invasive di controllo e sorveglianza.
AI Act tra Digital Marketing e l’Innovazione Tecnologica
Questo decreto avrà un impatto significativo sul settore del digital marketing (qui i trend del 2024 secondo bDigital), che spesso fa largo uso di tecnologie basate sull’IA. Le aziende dovranno adattarsi alle nuove norme, bilanciando l’innovazione con la tutela dei diritti dei cittadini. L’AI Act potrebbe anche fungere da modello per altre nazioni e continenti, delineando una direzione etica per il futuro sviluppo dell’IA a livello globale.
AI Act: ufficiale la regolamentazione dell’Intelligenza Artificiale. Cosa succede ora?
L’accordo preliminare sottolinea che l’entrata in vigore dell’AI Act avverrà due anni dopo l’approvazione, con alcune deroghe specifiche. I divieti assoluti, come quelli riguardanti il social scoring, saranno ridotti a sei mesi. I requisiti per i sistemi di IA ad alto rischio, i modelli di IA avanzati, gli enti di valutazione della conformità e il capitolo sulla governance verranno applicati un anno prima. Pertanto, le disposizioni dell’AI Act saranno implementate gradualmente: alcune immediatamente, altre dopo sei mesi (come nel caso delle applicazioni vietate), altre dopo dodici mesi, e le ultime dopo due anni.
Un punto di incertezza riguarda il possibile impatto negativo di questa normativa sull’innovazione in Europa, secondo alcune opinioni. È importante notare che, grazie all’AI Pact, le aziende avranno la possibilità di conformarsi in modo volontario alla normativa prima del suo completo ingresso in vigore. L’ufficio europeo dedicato all’intelligenza artificiale, situato presso la direzione generale Connect della Commissione, sovraintenderà all’applicazione della legge.
Inoltre, sono state previste eccezioni per le piccole e medie imprese, consentendo loro di creare ambienti di test, noti come “regulatory sandbox”, per promuovere l’innovazione.