Presente e futuro dell’Intelligenza Artificiale: l’AI Act nella rivoluzione tecnologica del secolo
L’accordo raggiunto dopo estenuanti trattative nel Trilogo tra Parlamento, Consiglio e Commission, noto come AI Act, rappresenta una svolta epocale nella storia delle tecnologie emergenti.
Con prossimo Regolamento, pubblicato non prima della primavera 2024, l’Unione Europea si posiziona non solo come un leader normativo globale, ma anche come un pioniere nell’intrecciare etica e legge nell’ambito dell’intelligenza artificiale.
L’impatto di questa legislazione è vasto, impattando l’intelligenza artificiale la società a più livelli, influenzando l’economia nascente del settore e rafforzando i diritti umani fondamentali in un’era dominata sempre più dalla tecnologia.
Non mancano le voci critiche sulle scelte annunciate dall’Unione definite da alcuni eccessivamente allarmistiche, paternalistiche e scollegate rispetto ad un mercato ancora agli albori.
Va ricordato però che anche negli USA, paese leader nel settore della IA Generativa (Chat GPT di Open AI, Bard e Gemini di Google solo per citare i chatbot più noti) almeno 25 Stati nel 2023 hanno preso in considerazione una legislazione specifica e 15 hanno emanato leggi o risoluzioni, mentre il Presidente Biden ha firmato il 30 ottobre un Executive Order che fissa standard di protezione della sicurezza e della privacy.
Anche in Cina la Cyberspace Administration of China ha fissato linee guida sulla intelligenza artificiale generativa che impongono una disciplina specifica dei contenuti in chiave di salvaguardia dell’ordine pubblico.
Secondo PwC l’I.A. apporterà un contributo all’economia globale di 15.7 trilioni di dollari di cui, 6,6 trilioni di dollari deriveranno probabilmente dall’aumento della produttività e 9,1 trilioni di dollari nei da effetti collaterali sui consumi che saranno rivoluzionati in praticamente tutti i mercati insieme alla logistica.
Le applicazioni di Intelligenza artificiale generativa ( qualsiasi tipo di intelligenza artificiale in grado di creare, in risposta a specifiche richieste, diversi tipi di contenuti come testi, audio, immagini, video) sono in continuo aumento generando condivisibili ansie in tutti i settori in cui l’impatto sulla occupazione è considerato rilevante quanto inevitabile.
La regolazione europea: principi fondamentali
Schematizzando i contenuti dell’accordo raggiunto dai tre legislatori UE ecco gli elementi salienti del prossimo Regolamento.
Protezione dei diritti civili
Il cuore dell’AI Act europeo è focalizzato sulla protezione dei cittadini contro i rischi potenziali delle nuove applicazioni.
La norma fisserà una serie di divieti mirati a salvaguardare la privacy e prevenire abusi possibili ai danni dei cittadino, fra cui:
- sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (es. convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
- raccolta non mirata di immagini facciali da Internet o filmati CCTV (TV a circuito chiuso) per creare database di riconoscimento facciale;
- riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative;
punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali; - sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio;
- ogni applicazione in cui l’intelligenza artificiale viene utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).
Le eccezioni per le forze dell’ordine
Nonostante le restrizioni generali, la norma in fieri concede specifiche eccezioni per le forze dell’ordine, bilanciando le esigenze di sicurezza pubblica con la tutela dei diritti individuali che includono l’uso controllato di sistemi di identificazione biometrica in contesti dove la sicurezza pubblica potrebbe essere in gioco, come la ricerca di sospetti di gravi reati. L’obiettivo è prevenire l’abuso di tecnologie potenzialmente invasive come ad esempio l’identificazione generalizzata dei partecipanti ad una manifestazione politica, sindacale ecc.
Dettagli sugli obblighi per i sistemi ad alto rischio
L’AI Act classifica alcuni sistemi di intelligenza artificiale come “ad alto rischio” ovvero quando risultano capaci di incidere in modo sensibile sulla salute e sui diritti fondamentali delle persone fisiche.e impone loro requisiti rigorosi per garantire la sicurezza e la conformità etica. Questi sistemi includono quelli impiegati in settori critici come la sanità, il trasporto, l’energia, dove un malfunzionamento o un abuso potrebbe avere conseguenze gravi. Il regolamento richiede che questi sistemi siano trasparenti, affidabili e soggetti a valutazioni d’impatto periodiche.
Implicazioni per i sistemi di I.A. generali
Per i sistemi di I.A. di uso generale, si applicheranno norme di trasparenza e obblighi di documentazione tecnica. Una cautela è particolarmente importante per i sistemi che, pur non essendo classificati come ad alto rischio, hanno comunque il potenziale di influenzare significativamente la vita quotidiana delle persone. Le norme si spera garantiranno che gli utenti comprendano come e perché determinate decisioni vengono prese dai sistemi di I.A., promuovendo una maggiore fiducia nell’uso della tecnologia.
Promozione dell’innovazione e supporto alle PMI
Un aspetto fondamentale dell’AI Act è il suo impegno per promuovere l’innovazione e supportare le piccole e medie imprese ma anche gli alti costi di implementazione. Solo l’addestramento e la formazione di ChatGPT-4 è costata 100 milioni di dollari. Commissione, Consiglio e Parlamento UE hanno concordato l’introduzione di “sandbox regolatori” spazi liberi per stimolare lo sviluppo tecnologici . Tali ambienti controllati permettono alle aziende di sperimentare e affinare le soluzioni di I.A. prima del lancio sul mercato, riducendo così gli ostacoli alla crescita e alla competitività.
Sanzioni
L’AI Act non solo stabilisce linee guida, ma prevede anche sanzioni rigorose per la non conformità, che possono arrivare fino a 35 milioni di euro o al 7% del fatturato globale dell’azienda. Queste misure dimostrano la serietà con cui l’UE intende far rispettare le nuove normative, sottolineando l’importanza di un uso responsabile dell’IA.
Impatto e crescita dell’Intelligenza Artificiale in Italia
La diffusione e l’importanza dell’intelligenza artificiale in Italia sono messe in luce da dati recenti forniti dall’Osservatorio Artificial Intelligence del Politecnico di Milano. Questi dati rivelano che il mercato dell’Artificial Intelligence nel nostro paese vale attualmente 380 milioni di euro, registrando un impressionante aumento del 27% rispetto all’anno precedente.
Un terzo degli investimenti per progetti di Intelligent Data Processing, il 28% NLP e Chatbot, il 19% Recommendation System, il 10% Computer Vision, il 9% Intelligent RPA
Oltre 6 grandi imprese su 10 hanno già avviato almeno un progetto di AI, tra le PMI il 15%
Il 93% degli italiani conosce l’AI, il 58% la considera molto presente nella vita quotidiana e il 37% nella vita lavorativa.
Il 73% degli utenti ha timori per l’impatto sul lavoro
Nonostante questa rapida espansione, emerge una discrepanza nella percezione pubblica dell’IA: sebbene il 95% delle persone sia a conoscenza dell’esistenza dell’IA, solo il 60% è in grado di riconoscerne le funzioni in prodotti e servizi concreti. Questo sottolinea la necessità di una maggiore consapevolezza e comprensione dell’I.A. tra il pubblico italiano come confermato uno studio di Goldman Sachs secondo cui abbiamo il tasso più basso di ricerca dei principali tool di I.A. sul web in tutta Europa.
L’influenza occulta della I.A. nel marketing il vero rischio per i consumatori
Nell’era digitale, il marketing assistito dall’intelligenza artificiale sta diventando sempre più raffinato e pervasivo.
In Italia il 19% del mercato della I.A. è legato ad applicazioni basate su algoritmi che suggeriscono ai clienti contenuti in linea con le singole preferenze (Recommendation System).
Se da un lato l’intelligenza artificiale offre benefici in termini di personalizzazione dell’offerta e efficienza nella customer care, dall’altro nasconde rischi significativi per i consumatori.
Uno studio di McKinsey ha messo in evidenza con accuratezza e precisione come l’intelligenza artificiale può incidere un tutto il ciclo di vita commerciale del cliente dalla creazione dei contenuti per generare la domanda all’analisi predittiva dei bisogni e più ancora a strumenti molto discussi come il dynamic pricing e persino al customer service predittivo.
L’utilizzo spregiudicato della I.A. nel marketing può tuttavia portare a manipolazioni, invasione della privacy e amplificazione di pregiudizi chiaramente in contrasto con le garanzie e tutele previste dagli ordinamenti dell’UE e nazionali.
Manipolazione comportamentale
La I.A. può analizzare enormi quantità di dati per creare profili utente dettagliati, permettendo ai marketer di indirizzare messaggi pubblicitari in modo estremamente personalizzato. Questo può sfociare in tecniche di manipolazione che sfruttano le vulnerabilità psicologiche degli individui, influenzando le loro decisioni di acquisto in modi che possono non essere nel lorointeresse ovvero decisioni commerciali che non avrebbero assunto con la dovuta consapevolezza in contrasto con il Codice del Consumo.
Invasione della Privacy
Il marketing basato sull’I.A. richiede l’accesso a dati personali spesso sensibili. La raccolta e l’analisi massiva di questi dati, senza il consenso esplicito e informato dell’utente, rappresentano una grave violazione della privacy. Inoltre, l’accumulo di dati può aumentare il rischio di fughe di informazioni e abusi.
Amplificazione di pregiudizi e discriminazioni
L’I.A. è priva di pregiudizi sono se lo sono anche i dati su cui è addestrata. Se i contenuti appresi riflettono pregiudizi esistenti, il programma può involontariamente perpetuarli e amplificarli Nel contesto del marketing, ciò può tradursi in discriminazioni basate su età, genere, etnia o altre caratteristiche personali, con campagne mirate che rinforzano stereotipi e disuguaglianze.
Conclusioni: la necessità di una regolamentazione responsabile nell’interesse di cittadini e imprese
Alla luce di questa breve disamina, diventa essenziale che l’impatto sulla vita dei cittadini dell’I.A. sia sottoposto a una regolamentazione attenta e responsabile, in linea con i principi dell’AI Act e le altre fonti dei diritti fondamentali.
La tutela dei cittadini, anche nella veste di consumatori, deve essere una priorità, garantendo un marketing trasparente, etico, che non invada la privacy o manipoli le persone profilandole illegalmente e inducendole a scelte di ogni tipo in contrasto con il proprio interesse e quella delle loro comunità.
L’AI Act dovrà ricevere l’approvazione formale del Parlamento europeo e del Consiglio, per entrare quindi in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale.
La legge sull’IA diventerà applicabile due anni dopo la sua entrata in vigore, fatta eccezione per alcune disposizioni specifiche: i divieti si applicheranno già dopo 6 mesi, mentre le norme sull’IA per finalità generali si applicheranno dopo 12 mesi.
Per il periodo transitorio che precederà l’applicazione generale del regolamento, la Commissione ha deciso di lanciare il Patto sull’IA, rivolto a sviluppatori di I.A. europei e del resto del mondo, che si impegneranno a titolo volontario ad attuare gli obblighi fondamentali della legge sull’IA prima dei termini di legge.
Il testo del futuro Regolamento UE e la sua attuazione richiederanno certamente ulteriori approfondimenti, specifiche tecniche più dettagliate e chiarimenti su chi debba vigilare, contemperando il sempre difficile equilibrio tra regolazione e libertà di iniziativa economica in un settore in cui USA, Cina e Regno Unito sono leader mondiali con solo due Paesi della UE ovvero Francia e Germania ben distanziati in termini di investimenti e startup.