Author Archive

Home / Author's Article(s) / Francesco Luongo

Il web scraping è la fonte di informazioni delle principali applicazioni di IA. Queste tecnologie, sebbene offrano vantaggi significativi, sollevano anche importanti questioni riguardanti la privacy.

Cos’è il Webscraping?

Il web scraping è in estrema sintesi una tecnica utilizzata per estrarre grandi quantità di dati dal web.

Questo processo automatizzato è ampiamente impiegato per vari scopi, come l’analisi del mercato, la ricerca accademica, il monitoraggio dei prezzi e molto altro.

In un mondo sempre più guidato dai dati, la loro raccolta massiva è diventata uno strumento essenziale per molte aziende.

Non sono solo le Big Tech ad utilizzare questa tecnica per ottenere vantaggi competitivi, come la raccolta di informazioni sui prodotti dei concorrenti o l’analisi dei trend di mercato desunte dai miliardi di utenti dei diversi social media più o meno segmentati.

Con l’espansione del commercio elettronico e l’aumento della disponibilità di dati online, le attività di web scraping sono aumentate. 

Diverse analisi di settore indicano che una percentuale considerevole di traffico web, in alcuni casi fino al 25-40%, può essere attribuita a bot di scraping. 

Nell’e-commerce o nella vendita al dettaglio questi tools consentono di recuperare informazioni sui prezzi dai siti web dei concorrenti e ritagliare offerte mirate su determinati target di clientela.

La pesca indiscriminata dei dati è ampiamente diffusa anche nel settore finanziario e degli investimenti raccogliendo nel web rendiconti finanziari, prezzi delle azioni e i più svariati indicatori economici che permettono di elaborare strategie di investimento mirate.
Utilizzo analogo nel settore immobiliare per individuare tendenze di mercato e dati sui prezzi, mentre nel mercato dei viaggi e turismo il web scraping consente di monitorare le disponibilità e i prezzi analizzando i feedback dei clienti.
Con l’espansione del commercio elettronico e l’aumento della disponibilità di dati online, le attività di strascico dati nel web sono aumentate. 
Diverse analisi di settore indicano che una percentuale considerevole di traffico web, in alcuni casi fino al 25-40%, può essere attribuita a bot di scraping. 

L’educazione della IA e la Privacy

Le principali applicazioni IA soprattutto quelle basate sul deep learning come chatbot e assistenti virtuali, ma anche in campi delicati come quello medico per la diagnosi precoce, apprendono ed evolvono tramite algoritmi che elaborano vasti set di dati.
Alcuni esempi:

Dati Comportamentali: Informazioni su come gli individui interagiscono con siti web, app, e dispositivi. Questo può includere dati di navigazione, preferenze di acquisto, e modelli di utilizzo. 

Dati Demografici: Età, genere, nazionalità, e altre informazioni demografiche possono essere usate per personalizzare e migliorare i servizi. 

Dati di Localizzazione: Posizione GPS, indirizzi IP, e altri dati di localizzazione che aiutano a comprendere le abitudini di mobilità e geografiche degli utenti. 

Dati di Interazione Sociale: Post sui social media, like, commenti, e altre forme di interazione sociale. 

Dati Biometrici: Impronte digitali, riconoscimento del volto, e altri dati biometrici usati per sistemi di sicurezza e identificazione personale. 

Questi contenuti oggetto del data mining possono includere informazioni personali sensibili, sollevando preoccupazioni sulla privacy degli individui che se ne vedono defraudati in rete senza nemmeno saperlo.
L’uso di dati personali nell’apprendimento automatico della IA può anche portare a vere e proprie violazioni della privacy, se non adeguatamente gestito.

Il punto di vista dei Garanti UE: più equilibrio tra innovazione e Privacy

La sfida dei prossimi anni sarà bilanciare le necessità “educative” e il potenziale dell’IA con il rispetto della riservatezza e dei diritti individuali dei cittadini.
Il Garante per la protezione dei dati personali italiano è stato il primo ad approfondire questi nuovi scenari con un’indagine su Open AI e suo ChatGPT che ha fatto conoscere al grande pubblico le potenzialità dei nuovi software basati sull’ intelligenza artificiale.
Nel provvedimento del 30 marzo 2023 veniva contestatala violazione del GDPR alla società statunitense preso atto che non esisteva alcun controllo all’accesso dell’ applicazione ai minori di 18 anni e: ”l’assenza di base giuridica che giustifichi la massiccia raccolta e archiviazione di dati personali per “addestrare” il chatbot”.
Solo dopo una serie di interlocuzioni finalizzate a rendere il software conforme al GDPR l’11 Aprile 2023 ne veniva permessodal Garante l’utilizzo in Italia condizionato all’ adozione di misure di salvaguardia dei dati personali degli utenti.

A sua volta l’European Data Protection Board, l’organismo dei Garanti UE, si è inserito nella tematica decidendo di lanciare una task force specifica su ChatGPT.
Il problema di fondo è semplice ed è stato ben sintetizzato dal Guido Scorza, componente del Garante per la protezione dei dati personali in un suo intervento:

“I dati personali di miliardi di persone, frammenti della loro identità personale e “titoli rappresentativi” di un diritto fondamentale come il diritto alla privacy vengono letteralmente pescati a strascico dalle grandi fabbriche dell’intelligenza artificiale globale per l’addestramento dei propri algoritmi e, dunque, trasformati in assets commerciali e tecnologici di pochi al fine consentire a questi ultimi di fare business. Il tutto avviene come se il web fosse un’immensa prateria nella quale tutto è di tutti e chiunque può pertanto impossessarsene e farlo proprio per qualsiasi finalità”

Per proteggere i dati personali dal web scraping illegale, è essenziale il ricorso generalizzato alla l’anonimizzazione e la pseudonimizzazione dei dati e l’implementazione di sistemi avanzati di autenticazione e autorizzazione. 
Il consenso informato gioca un ruolo cruciale, assicurando che gli individui siano pienamente consapevoli di come i loro dati vengano utilizzati e abbiano il controllo su di essi.

Il Ruolo della P.A. delle aziende e degli sviluppatori

Gli sviluppatori e le aziende hanno la responsabilità di garantire che le applicazioni IA siano sviluppate e utilizzate in modo responsabile secondo il criterio fondamentale della Privacy by design.
Per far fronte al web scraping dilagante anche i siti web della Pubblica Amministrazione e dei privati devono adottare misure di sicurezza robuste ed efficaci in modo da non compromettere l’usabilità per gli utenti legittimi.
Le migliori pratiche in termini di sicurezza dei dati, come la crittografia l’anonimizzazione e la pseudonimizzazione dei dati ma anche l’implementazione di sistemi avanzati di autenticazione e autorizzazione con audit di sicurezza, sono fondamentali per proteggere i dati raccolti da accessi non autorizzati e abusi nella raccolta.

Il webscraping e l’IA che impara da esso hanno il potere di trasformare radicalmente il nostro modo di interagire con il mondo digitale sicuramente in meglio.

Tuttavia, è imperativo che innovazione e rispetto della privacy procedano di pari passo, garantendo che i benefici della tecnologia non vadano a scapito del diritto alla privacy dei cittadini siano essi digitali o meno.

L’accordo raggiunto dopo estenuanti trattative nel Trilogo tra Parlamento, Consiglio e Commission, noto come AI Act, rappresenta una svolta epocale nella storia delle tecnologie emergenti.

Con prossimo Regolamento, pubblicato non prima della primavera 2024, l’Unione Europea si posiziona non solo come un leader normativo globale, ma anche come un pioniere nell’intrecciare etica e legge nell’ambito dell’intelligenza artificiale.

L’impatto di questa legislazione è vasto, impattando l’intelligenza artificiale la società a più livelli, influenzando l’economia nascente del settore e rafforzando i diritti umani fondamentali in un’era dominata sempre più dalla tecnologia.

Non mancano le voci critiche sulle scelte annunciate dall’Unione definite da alcuni eccessivamente allarmistiche, paternalistiche e scollegate rispetto ad un mercato ancora agli albori.

Va ricordato però che anche negli USA, paese leader nel settore della IA Generativa (Chat GPT di Open AI, Bard e Gemini di Google solo per citare i chatbot più noti) almeno 25 Stati nel 2023 hanno preso in considerazione una legislazione specifica e 15 hanno emanato leggi o risoluzioni, mentre il Presidente Biden ha firmato il 30 ottobre un Executive Order che fissa standard di protezione della sicurezza e della privacy.

Anche in Cina la Cyberspace Administration of China ha fissato linee guida sulla intelligenza artificiale generativa che impongono una disciplina specifica dei contenuti in chiave di salvaguardia dell’ordine pubblico.

Secondo PwC l’I.A. apporterà un contributo all’economia globale di 15.7 trilioni di dollari di cui, 6,6 trilioni di dollari deriveranno probabilmente dall’aumento della produttività e 9,1 trilioni di dollari nei da effetti collaterali sui consumi che saranno rivoluzionati in praticamente tutti i mercati insieme alla logistica.

Le applicazioni di Intelligenza artificiale generativa ( qualsiasi tipo di intelligenza artificiale in grado di creare, in risposta a specifiche richieste, diversi tipi di contenuti come testi, audio, immagini, video) sono in continuo aumento generando condivisibili ansie in tutti i settori in cui l’impatto sulla occupazione è considerato rilevante quanto inevitabile.

Principali tools di IA generativa by Sequoia al 17 ottobre 2022

La regolazione europea: principi fondamentali

Schematizzando i contenuti dell’accordo raggiunto dai tre legislatori UE ecco gli elementi salienti del prossimo Regolamento.

Protezione dei diritti civili

Il cuore dell’AI Act europeo è focalizzato sulla protezione dei cittadini contro i rischi potenziali delle nuove applicazioni.

La norma fisserà una serie di divieti mirati a salvaguardare la privacy e prevenire abusi possibili ai danni dei cittadino, fra cui:

  • sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (es. convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
  • raccolta non mirata di immagini facciali da Internet o filmati CCTV (TV a circuito chiuso) per creare database di riconoscimento facciale;
  • riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative;
    punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali;
  • sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio;
  • ogni applicazione in cui l’intelligenza artificiale viene utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).

Le eccezioni per le forze dell’ordine
Nonostante le restrizioni generali, la norma in fieri concede specifiche eccezioni per le forze dell’ordine, bilanciando le esigenze di sicurezza pubblica con la tutela dei diritti individuali che includono l’uso controllato di sistemi di identificazione biometrica in contesti dove la sicurezza pubblica potrebbe essere in gioco, come la ricerca di sospetti di gravi reati. L’obiettivo è prevenire l’abuso di tecnologie potenzialmente invasive come ad esempio l’identificazione generalizzata dei partecipanti ad una manifestazione politica, sindacale ecc.

Dettagli sugli obblighi per i sistemi ad alto rischio
L’AI Act classifica alcuni sistemi di intelligenza artificiale come “ad alto rischio” ovvero quando risultano capaci di incidere in modo sensibile sulla salute e sui diritti fondamentali delle persone fisiche.e impone loro requisiti rigorosi per garantire la sicurezza e la conformità etica. Questi sistemi includono quelli impiegati in settori critici come la sanità, il trasporto, l’energia, dove un malfunzionamento o un abuso potrebbe avere conseguenze gravi. Il regolamento richiede che questi sistemi siano trasparenti, affidabili e soggetti a valutazioni d’impatto periodiche.

Implicazioni per i sistemi di I.A. generali
Per i sistemi di I.A. di uso generale, si applicheranno norme di trasparenza e obblighi di documentazione tecnica. Una cautela è particolarmente importante per i sistemi che, pur non essendo classificati come ad alto rischio, hanno comunque il potenziale di influenzare significativamente la vita quotidiana delle persone. Le norme si spera garantiranno che gli utenti comprendano come e perché determinate decisioni vengono prese dai sistemi di I.A., promuovendo una maggiore fiducia nell’uso della tecnologia.

Promozione dell’innovazione e supporto alle PMI
Un aspetto fondamentale dell’AI Act è il suo impegno per promuovere l’innovazione e supportare le piccole e medie imprese ma anche gli alti costi di implementazione. Solo l’addestramento e la formazione di ChatGPT-4 è costata 100 milioni di dollari. Commissione, Consiglio e Parlamento UE hanno concordato l’introduzione di “sandbox regolatori” spazi liberi per stimolare lo sviluppo tecnologici . Tali ambienti controllati permettono alle aziende di sperimentare e affinare le soluzioni di I.A. prima del lancio sul mercato, riducendo così gli ostacoli alla crescita e alla competitività.

Sanzioni
L’AI Act non solo stabilisce linee guida, ma prevede anche sanzioni rigorose per la non conformità, che possono arrivare fino a 35 milioni di euro o al 7% del fatturato globale dell’azienda. Queste misure dimostrano la serietà con cui l’UE intende far rispettare le nuove normative, sottolineando l’importanza di un uso responsabile dell’IA.

Impatto e crescita dell’Intelligenza Artificiale in Italia

La diffusione e l’importanza dell’intelligenza artificiale in Italia sono messe in luce da dati recenti forniti dall’Osservatorio Artificial Intelligence del Politecnico di Milano. Questi dati rivelano che il mercato dell’Artificial Intelligence nel nostro paese vale attualmente 380 milioni di euro, registrando un impressionante aumento del 27% rispetto all’anno precedente.

Un terzo degli investimenti per progetti di Intelligent Data Processing, il 28% NLP e Chatbot, il 19% Recommendation System, il 10% Computer Vision, il 9% Intelligent RPA

Oltre 6 grandi imprese su 10 hanno già avviato almeno un progetto di AI, tra le PMI il 15%

Il 93% degli italiani conosce l’AI, il 58% la considera molto presente nella vita quotidiana e il 37% nella vita lavorativa. 

Il 73% degli utenti ha timori per l’impatto sul lavoro

Nonostante questa rapida espansione, emerge una discrepanza nella percezione pubblica dell’IA: sebbene il 95% delle persone sia a conoscenza dell’esistenza dell’IA, solo il 60% è in grado di riconoscerne le funzioni in prodotti e servizi concreti. Questo sottolinea la necessità di una maggiore consapevolezza e comprensione dell’I.A. tra il pubblico italiano come confermato uno studio di Goldman Sachs secondo cui abbiamo il tasso più basso di ricerca dei principali tool di I.A. sul web in tutta Europa.

L’influenza occulta della I.A. nel marketing il vero rischio per i consumatori
Nell’era digitale, il marketing assistito dall’intelligenza artificiale sta diventando sempre più raffinato e pervasivo.

In Italia il 19% del mercato della I.A. è legato ad applicazioni basate su algoritmi che suggeriscono ai clienti contenuti in linea con le singole preferenze (Recommendation System).

Se da un lato l’intelligenza artificiale offre benefici in termini di personalizzazione dell’offerta e efficienza nella customer care, dall’altro nasconde rischi significativi per i consumatori.

McKinsey Applicazioni dell’AI marketing nel ciclo di vita del cliente – Smart Insights, 2021

Uno studio di McKinsey ha messo in evidenza con accuratezza e precisione come l’intelligenza artificiale può incidere un tutto il ciclo di vita commerciale del cliente dalla creazione dei contenuti per generare la domanda all’analisi predittiva dei bisogni e più ancora a strumenti molto discussi come il dynamic pricing e persino al customer service predittivo.

L’utilizzo spregiudicato della I.A. nel marketing può tuttavia portare a manipolazioni, invasione della privacy e amplificazione di pregiudizi chiaramente in contrasto con le garanzie e tutele previste dagli ordinamenti dell’UE e nazionali.

Manipolazione comportamentale

La I.A. può analizzare enormi quantità di dati per creare profili utente dettagliati, permettendo ai marketer di indirizzare messaggi pubblicitari in modo estremamente personalizzato. Questo può sfociare in tecniche di manipolazione che sfruttano le vulnerabilità psicologiche degli individui, influenzando le loro decisioni di acquisto in modi che possono non essere nel lorointeresse ovvero decisioni commerciali che non avrebbero assunto con la dovuta consapevolezza in contrasto con il Codice del Consumo.

Invasione della Privacy

Il marketing basato sull’I.A. richiede l’accesso a dati personali spesso sensibili. La raccolta e l’analisi massiva di questi dati, senza il consenso esplicito e informato dell’utente, rappresentano una grave violazione della privacy. Inoltre, l’accumulo di dati può aumentare il rischio di fughe di informazioni e abusi.

Amplificazione di pregiudizi e discriminazioni

L’I.A. è priva di pregiudizi sono se lo sono anche i dati su cui è addestrata. Se i contenuti appresi riflettono pregiudizi esistenti, il programma può involontariamente perpetuarli e amplificarli Nel contesto del marketing, ciò può tradursi in discriminazioni basate su età, genere, etnia o altre caratteristiche personali, con campagne mirate che rinforzano stereotipi e disuguaglianze.

Conclusioni: la necessità di una regolamentazione responsabile nell’interesse di cittadini e imprese

Alla luce di questa breve disamina, diventa essenziale che l’impatto sulla vita dei cittadini dell’I.A. sia sottoposto a una regolamentazione attenta e responsabile, in linea con i principi dell’AI Act e le altre fonti dei diritti fondamentali.

La tutela dei cittadini, anche nella veste di consumatori, deve essere una priorità, garantendo un marketing trasparente, etico, che non invada la privacy o manipoli le persone profilandole illegalmente e inducendole a scelte di ogni tipo in contrasto con il proprio interesse e quella delle loro comunità.

L’AI Act dovrà ricevere l’approvazione formale del Parlamento europeo e del Consiglio, per entrare quindi in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale.

La legge sull’IA diventerà applicabile due anni dopo la sua entrata in vigore, fatta eccezione per alcune disposizioni specifiche: i divieti si applicheranno già dopo 6 mesi, mentre le norme sull’IA per finalità generali si applicheranno dopo 12 mesi.

Per il periodo transitorio che precederà l’applicazione generale del regolamento, la Commissione ha deciso di lanciare il Patto sull’IA, rivolto a sviluppatori di I.A. europei e del resto del mondo, che si impegneranno a titolo volontario ad attuare gli obblighi fondamentali della legge sull’IA prima dei termini di legge.

Il testo del futuro Regolamento UE e la sua attuazione richiederanno certamente ulteriori approfondimenti, specifiche tecniche più dettagliate e chiarimenti su chi debba vigilare, contemperando il sempre difficile equilibrio tra regolazione e libertà di iniziativa economica in un settore in cui USA, Cina e Regno Unito sono leader mondiali con solo due Paesi della UE ovvero Francia e Germania ben distanziati in termini di investimenti e startup.

L’avvento dell’intelligenza artificiale (IA) sta ridefinendo il panorama tecnologico globale, offrendo straordinarie opportunità per l’innovazione in numerosi settori. Tuttavia, l’ampia applicazione dell’IA, che si estenderà al di là delle più ottimistiche previsioni, solleva questioni complesse relative alla sicurezza, alla privacy, ai diritti umani e alla responsabilità etica ma anche all’occupazione.

E’ in questo contesto di grandi attese e profonde incertezze che il Governo Italiano ha varato, il 23 Aprile scorso, lo schema di un Disegno di legge “Recante disposizioni e delega al Governo in materia di intelligenza artificiale” per fornire un primo quadro normativo che guidi lo sviluppo e l’uso dell’IA in maniera responsabile e centrata sull’uomo.

Finalità e ambito di applicazione del Disegno di Legge

La norma proposta al Parlamento mira a stabilire principi chiari per la ricerca, la sperimentazione, lo sviluppo, l’adozione e l’applicazione dell’IA. Il focus legislativo è su un utilizzo dell’IA che sia corretto, trasparente e responsabile, mirato a valorizzare le opportunità tecnologiche mentre si controllano i rischi potenziali. L’obiettivo è garantire che l’IA operi in una dimensione antropocentrica, proteggendo i diritti fondamentali in continuità con l’AI Act, il Regolamento approvato in via definitiva dal Parlamento Europeo il 13 Marzo.

Principi fondamentali

Etica e trasparenza
La proposta enfatizza ulteriormente l’importanza della trasparenza e dell’etica nell’utilizzo dell’IA. Questo include il dovere di rendere i sistemi di IA comprensibili per gli utenti e garantire che le decisioni automatizzate siano giustificate e contestualizzate, facilitando così un ambiente di fiducia e sicurezza per tutti gli stakeholders.

Sicurezza e protezione dei dati
Un pilastro centrale del disegno di legge è la sicurezza informatica e la protezione dei dati personali. Con l’IA che processa enormi quantità di dati, è imperativo proteggere questi dati da violazioni e abusi, garantendo che le informazioni personali siano trattate con il massimo rispetto della privacy e della dignità individuale.

Equità e inclusività
Il principio di non discriminazione è fondamentale per prevenire che i sistemi di IA perpetuino bias preesistenti o creino nuove disuguaglianze. Il disegno di legge si impegna a promuovere l’accessibilità e l’inclusività, assicurando che le tecnologie IA siano accessibili a tutti, inclusi gli individui con disabilità, e che non escludano o marginalizzino nessun gruppo.

Impatto settoriale e applicazioni specifiche dell’IA

Sanità

Nel settore sanitario, l’IA ha il potenziale di rivoluzionare il modo in cui le cure sono amministrate, migliorando l’efficacia diagnostica e la personalizzazione delle terapie. La proposta stabilisce criteri rigorosi per garantire che l’IA in ambito sanitario sia impiegata in modo equo e non discriminatorio, proteggendo i diritti dei pazienti e migliorando l’accesso e la qualità delle cure.

Ambito lavorativo

Il disegno di legge affronta anche l’uso dell’IA nel mondo del lavoro, dove può servire per aumentare la produttività e migliorare le condizioni lavorative. Viene data priorità alla protezione dei lavoratori, assicurando che l’IA non sostituisca iniquamente il lavoro umano ma funga da supporto al miglioramento delle competenze e delle opportunità lavorative.

Pubblica Amministrazione

Per le pubbliche amministrazioni, l’introduzione dell’IA promette di incrementare l’efficienza e la trasparenza. Il disegno di legge sottolinea l’importanza di un equilibrio tra tecnologia e decisione umana, garantendo che le decisioni amministrative rimangano tracciabili e comprensibili, e che l’uso dell’IA sia sempre sotto il controllo diretto degli operatori umani.

Giustizia

Nell’attività giudiziaria i sistemi di intelligenza artificiale dovranno essere utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale. Il Ministero della giustizia disciplinerà l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari. Per le altre giurisdizioni l’impiego è disciplinato in conformità ai rispettivi ordinamenti.

La nuova Governance italiana dell’intelligenza artificiale

Il Governo prevede la nomina dell’Agenzia per l’Italia Digitale (AgID) e dell’Agenzia per la Cybersicurezza Nazionale (ACN) come Autorità Nazionali per l’Intelligenza Artificiale (AI). Questa mossa rappresenta un passo significativo nel rafforzamento del quadro normativo nazionale e dell’Unione Europea in materia di AI, delineando specifiche responsabilità e poteri per queste due agenzie chiave.

La divisione delle responsabilità tra l’AgID e l’ACN è delineata per garantire una gestione efficace e una regolamentazione della tecnologia AI. L’AgID sarà principalmente responsabile della promozione dell’innovazione e dello sviluppo dell’intelligenza artificiale. Questo include la definizione delle procedure e l’esercizio delle funzioni di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi AI.

D’altra parte, l’ACN avrà un ruolo cruciale nella vigilanza dei sistemi di intelligenza artificiale, con un occhio particolare alla cybersicurezza. Sarà responsabile delle attività ispettive e sanzionatorie e collaborerà alla promozione dello sviluppo dell’AI, specialmente in termini di sicurezza informatica.

Un aspetto innovativo del disegno di legge è l’istituzione di un Comitato di coordinamento presso la Presidenza del Consiglio dei ministri. Questo comitato, composto dai direttori generali delle due agenzie e dal Capo del Dipartimento per la trasformazione digitale, è incaricato di assicurare il coordinamento e la collaborazione con altre pubbliche amministrazioni e autorità indipendenti. Questo dovrebbe facilitare un approccio più integrato e sinergico nello sviluppo e nell’implementazione delle tecnologie AI.

Le due Autorità lavoreranno anche congiuntamente per istituire e gestire spazi di sperimentazione, cruciali per la realizzazione di sistemi di intelligenza artificiale conformi alla normativa. Questi spazi permetteranno di testare nuove soluzioni AI in un ambiente controllato, stimolando ulteriormente l’innovazione e l’adeguamento alle norme vigenti.

Restano ferme le competenze, i compiti e i poteri del Garante per la protezione dei dati personali.

Le modifiche al TUSMA: la “bollinatura” obbligatoria per i contenuti generati dalla IA

La normativa in questione prevede l’aggiunta di un articolo 40 bis al TUSMA secondo cui qualunque contenuto informativo — testuale, fotografico, audiovisivo e radiofonico — diffuso tramite piattaforme di servizi audiovisivi e radiofonici, che sia stato creato o alterato in modo significativo mediante l’utilizzo di intelligenza artificiale, debba essere chiaramente identificato come tale. Gli operatori dei media dovranno inserire un segno identificativo, come una filigrana o un annuncio audio, marcato con l’acronimo “IA”. Questo segno deve essere chiaramente visibile e riconoscibile dagli utenti, garantendo che ogni modifica o creazione assistita da IA sia immediatamente evidente.

Dettagli della Regolamentazione
L’identificazione è richiesta sia all’inizio che alla fine di ogni trasmissione o contenuto, così come dopo ogni interruzione pubblicitaria. Questo requisito assicura che gli spettatori siano costantemente informati della natura del contenuto che stanno consumando, aumentando la consapevolezza sull’uso dell’IA nei media. Tuttavia, la norma prevede alcune eccezioni importanti: i contenuti che rientrano nelle categorie di opere manifestamente creative, satiriche, artistiche o fittizie sono esentati dall’obbligo di inserimento del segno identificativo. Questa distinzione è cruciale per non soffocare la libertà creativa e satirica, fondamentale in una società democratica.

Promozione della co-regolamentazione
Successive disposizioni spingono verso una co-regolamentazione e autoregolamentazione tra i fornitori di servizi di media e le piattaforme di condivisione video. L’Autorità è incaricata di promuovere codici di condotta che aiutino a standardizzare e implementare queste nuove regole, assicurando che l’industria dei media aderisca efficacemente alle linee guida senza compromettere l’innovazione.

Intelligenza artificiale: nuovi reati e aggravanti nel Codice Penale e la delega per la revisione del Codice di Procedura Penale

Il DDL introduce modifiche significative alla disciplina penale per affrontare i rischi associati all’uso di sistemi di intelligenza artificiale in attività criminose. In particolare, si prevede un aumento delle pene per i reati commessi mediante l’impiego di sistemi di IA, considerati particolarmente insidiosi quando ostacolano la difesa pubblica o privata o quando aggravano le conseguenze del reato. Questo riflette la consapevolezza crescente della capacità dell’IA di intensificare le dinamiche criminali e di complicare l’azione delle forze dell’ordine.

Ampliamento delle tipologie di reato
La legislazione prevede anche l’introduzione di nuove fattispecie di reato e l’espansione delle circostanze aggravanti per coprire una gamma più ampia di abusi possibili tramite l’IA. Questi includono reati in cui l’IA è usata per propagare danni su larga scala o per compromettere beni giuridici specifici. L’intento è di offrire una risposta legale adeguata alla velocità e alla complessità delle minacce poste dall’uso malevolo dell’IA.

Aggravanti specifiche per manipolazione e disinformazione
Un aspetto critico del disegno di legge riguarda l’utilizzo dell’IA per manipolare o alterare informazioni sensibili, come i risultati delle elezioni. Viene introdotta una circostanza aggravante per chi usa l’IA per diffondere informazioni false che potrebbero alterare il risultato di competizioni elettorali, riflettendo casi già osservati in altre nazioni europee. Inoltre, la legge stabilisce pene severe, da uno a cinque anni di reclusione, per la diffusione illecita di contenuti generati o manipolati con IA, soprattutto se tali atti portano a danni ingiusti.

Sono definite circostanze aggravanti speciali per alcuni reati nei quali l’utilizzo di sistemi di intelligenza artificiale abbia una straordinaria capacità di propagazione dell’offesa.
Infine, attraverso apposita delega, il Governo è chiamato a prevedere:

  1. strumenti tesi ad inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, supportati da un adeguato sistema di sanzioni;
  2. una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, nonché ulteriori fattispecie di reato, punite a titolo di dolo, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale;
  3. una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in termini di rilevante gravità sull’offesa;
  4. una revisione della normativa sostanziale e processuale vigente, anche a fini di razionalizzazione complessiva del sistema.

Ambizioni e limiti della proposta del Governo

Benché rappresenti un passo significativo verso un quadro regolamentare più strutturato, il DDL solleva questioni fondamentali sulla sua efficacia pratica e sulla sufficienza dei finanziamenti previsti a sostegno di una tecnologia strategica per l’economia al pari di internet.

La norma si dimostra ambiziosa nel voler disciplinare l’IA nei 5 ambiti elencati: strategia nazionale, Autorità nazionali, azioni di promozione, tutela del diritto di autore e le sanzioni penali, tuttavia, l’ampiezza e la complessità delle applicazioni dell’IA presentano una sfida notevole per l’effettiva implementazione di tali principi. L’intelligenza artificiale, infatti, permea già una varietà di settori economici e istituzionali con dinamiche e complessità diverse, rendendo ardua l’applicazione uniforme di principi generali attraverso una “legge quadro” che non consideri le specificità di ogni ambito.

In termini di finanziamenti, la normativa prevede investimenti per un totale di 1 miliardo di euro nei settori dell’IA, della cybersicurezza e del quantum computing. Sebbene questa cifra possa sembrare considerevole, risulta modesta in confronto agli sforzi compiuti da altre nazioni europee. Ad esempio, la Francia ha destinato circa 7 miliardi di euro. Già questo confronto evidenzia una chiara discrepanza tra le ambizioni italiane e le risorse effettivamente allocate, suggerendo che l’Italia potrebbe restare indietro rispetto ai suoi vicini europei.

In conclusione, benché la bozza di normativa italiana sull’IA rappresenti un proclama di intenti lodevole, le sfide legate alla sua applicazione e il livello di finanziamento rispetto ad altri stati membri dell’UE sollevano interrogativi sulla sua capacità di trasformare principi in pratiche efficaci.

Sarà essenziale il confronto in Parlamento e con le parti sociali per il miglioramento del DDL in fase di approvazione, ma anche un continuo aggiornamento e adeguamento della legge per mantenere il passo con l’evoluzione rapida e complessa dell’intelligenza artificiale nella vita sociale ed economica del Paese.