Artificial Intelligence Act in UE e deregulation USA: scenario complessivo e implicazioni per i broadcaster.

 

(05 dicembre 2023) La Commissione europea ha elaborato una proposta di legge sull’Intelligenza artificiale: l’Artificial Intelligence Act. Questa normativa è volta a regolamentare ogni possibile applicazione dell’intelligenza artificiale (AI), anche in una prospettiva futura. Come per ogni legge europea, l’iter ha coinvolto anche il Parlamento Europeo e il Consiglio dell’Unione Europea, che stanno vagliando e modificando il testo. Ciascuno dei soggetti in questione ha esercitato la propria facoltà di apportare modifiche alla proposta della Commissione e il risultato finale sarà frutto un’intesa complessiva.

Lo scorso giugno il Parlamento europeo ha approvato una versione ‘quasi definitiva’ di testo dell’Artificial Intelligence Act che, tra l’altro, prevede obblighi per i provider di sistemi di AI generativa e di modelli base di AI. Il Parlamento ha cerato di trovare un punto di caduta tra il bisogno di regolamentare lo sviluppo della tecnologia, soprattutto pensando all’impatto sulla vita dei cittadini, ma anche rispettando la necessità di non mettere un freno all’innovazione tecnologica. La normativa prevede esenzioni per alcune attività di ricerca e per le componenti dell’AI rese disponibili con licenze open source.

Quello che è stato considerato un limite sono le tempistiche di messa a regime del sistema normativo. Una volta definitivamente approvata, la normativa prevede un periodo di due anni di applicazione meno stringente delle regole, per permettere agli operatori di settore di adeguarsi. I tempi stimati prevedono quindi l’effettiva e piena entrata in vigore della normativa non prima del 2026.

Resta dunque da capire come l’Unione Europea, per garantire sin da subito sicurezza, trasparenza e rispetto dei diritti e della privacy, potrà ottenere una collaborazione su base volontaria da parte delle aziende del settore.

Un’altra considerazione di fondo riguarda la scelta strategica fatta dalla Commissione, che è stata quella di utilizzare lo strumento del Regolamento, invece che della Direttiva. Questo è avvenuto per due ragioni: la prima è che il Regolamento garantisce uniformità interpretativa e applicativa della norma in tutti gli Stati membri dell’UE; la seconda è che un Regolamento può essere applicato direttamente in ognuno degli Stati membri dell’Unione e non necessita, a differenza della Direttiva, di un ulteriore recepimento a livello nazionale.

La piramide del rischio

Il Parlamento UE, rispetto al testo iniziale, ha imposto obblighi generalizzati più severi in termini di diritto d’autore, per quanto concerne i materiali creativi originali utilizzati dagli sviluppatori per perfezionare il funzionamento del software AI, ma al contempo ha ritenuto più corretto modulare le obbligazioni sulla base del “rischio” rappresentato dai diversi sistemi di AI.

L’approccio basato sul rischio ha una struttura piramidale a quattro livelli: Rischio inaccettabile; Alto rischio; Rischio limitato; Rischio minimo o nullo.

Rischio inaccettabile si configura nel caso di sistemi AI considerabili una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone; in questo caso tali applicazioni saranno vietate. Esse riguarderebbero, per esempio, i giocattoli che utilizzassero un’assistenza vocale che incoraggia, o potrebbe incoraggiare, comportamenti pericolosi.

Rischio elevato include le tecnologie di AI utilizzate in: infrastrutture critiche (ad esempio i trasporti pubblici e privati), che potrebbero mettere a rischio la vita e la salute dei cittadini; istruzione o formazione professionale, che può determinare l’accesso all’istruzione e al corso professionale della vita di qualcuno (ad esempio il sistema di calcolo per il punteggio degli esami); componenti di sicurezza dei prodotti (ad esempio l’impiego di AI in chirurgia robotizzata); occupazione, gestione dei lavoratori e accesso al lavoro autonomo (ad esempio software di selezione dei CV per le procedure di assunzione); servizi privati e pubblici essenziali (ad esempio dei software creditizi che neghino ai cittadini l’opportunità di ottenere un prestito); analisi per l’applicazione della legge che possano interferire con i diritti fondamentali delle persone (ad esempio la valutazione dell’affidabilità delle prove); gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio la verifica dell’autenticità dei documenti di viaggio); amministrazione della giustizia e processi democratici (ad esempio forme di applicazione della legge ad un insieme concreto di accadimenti). I sistemi AI a rischio elevato saranno soggetti a controlli rigorosi prima di poter essere immessi sul mercato; tra questi obblighi: adeguati sistemi di valutazione e mitigazione dei rischi; elevata qualità delle serie di dati che alimentano il sistema per ridurre al minimo i rischi e i risultati discriminatori; registrazione dell’attività per garantire la tracciabilità dei risultati; documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo al fine di valutarne la conformità; informazioni chiare all’utente; adeguate misure di sorveglianza umana per ridurre al minimo il rischio; elevato livello di robustezza, sicurezza e precisione.
Anche tutti i sistemi di identificazione biometrica a distanza sono considerati a rischio elevato e dovranno soddisfare requisiti rigorosi. L’uso dell’identificazione biometrica a distanza in spazi accessibili al pubblico a fini di generico contrasto alla malavita è, in linea di principio, vietato. Le eccezioni sono rigorosamente definite e regolamentate, come ad esempio quando fosse necessario cercare un minore scomparso, oppure per prevenire una minaccia terroristica specifica e imminente o, anche, per individuare, identificare o perseguire un autore o un sospettato di un reato grave. Quest’ultimo impiego è comunque soggetto all’autorizzazione di un organo giudiziario o di altro organo indipendente e comporta limiti di tempo, di portata geografica e di dati consultabili.

Rischio limitato si riferisce ai sistemi di AI con specifici obblighi di trasparenza. Quando si utilizzano sistemi di intelligenza artificiale come i chatbot, gli utenti devono essere consapevoli di interagire con una macchina in modo da poter prendere una decisione informata se procedere con la relazione o se rinunciare al servizio così erogato.

Rischio minimo o nullo è quello riferito, per esempio, ad applicazioni quali i videogiochi per maggiorenni o i filtri anti spam. La stragrande maggioranza dei sistemi di IA attualmente utilizzati nell’UE rientrano in questa categoria. La proposta di legge consente il libero utilizzo dell’AI a rischio minimo.

Il copyright

In questo scenario, un ruolo rilevante è riservato agli aspetti afferenti al diritto d’autore, tema sul quale non è stata ancora raggiunta un’unanimità di intenzioni. Per esempio, la Commissione è scettica rispetto al prospettato obbligo per i fornitori di servizi AI di pubblicare un riepilogo dei dati utilizzati per il training dei propri sistemi. Tuttavia c’è concordanza di giudizio relativamente al fatto che attività quali il cosiddetto web scraping (l’estrazione massiva dei dati in rete) o il mining (sistemi di validazione delle blockchain) possano implicare pratiche scorrette e l’appropriazione non remunerata di un valore creativo di terzi.

Ecco perché la legge sull’AI proposta dalla Commissione Europea imponeva da subito la necessità di identificare i contenuti utilizzati per addestrare l’intelligenza artificiale.

Media e AI

Non solo l’intelligenza artificiale si è imposta sulla scena delle trasformazioni, culturali, tecnologiche ed economiche, ma anche il settore dei media sta vivendo una fase di profonda trasformazione.

Il punto di contatto tra questi due mondi è determinato dal fatto che l’intelligenza artificiale offre inedite opportunità alle aziende editrici per la creazione, la produzione, la distribuzione, il marketing, la vendita e per il coinvolgimento degli utenti. Tutte queste sono opportunità interessanti, dal valore indubbiamente positivo, ma non scevre da rischi, soprattutto di natura legale.

A monte, come sopra abbiamo ricordato, c’è il fatto che, prima ancora di diventare utenti dei servizi di AI, i media, radio e tv comprese, possono essere ‘vittime’ della stessa, in quanto oggetto di azioni di web scraping e di mining.

Poi, usando contenuti generati da un’intelligenza artificiale, per un broadcaster potrebbe essere praticamente impossibile stabilire se quanto generato e trasmesso sia davvero esente da obblighi di corresponsione di un diritto d’autore ad una terza parte. In genere gli sviluppatori di intelligenza artificiale non possono (o non vogliono) rivelare le fonti dei dati poi utilizzati ed elaborati dai loro algoritmi.

Relativamente alla prima parte del problema, correlata al fatto che l’AI attinga dai cataloghi delle media company, già numerosi editori (soprattutto di livello internazionale o big nazionali) hanno avviato negoziati con le società di sviluppo dell’intelligenza artificiale in merito all’uso esplicito dei propri contenuti multimediali in funzione dell’addestramento e formazione dell’intelligenza artificiale; così facendo, si sono garantiti la monetizzazione e un successivo uso legale dei propri contenuti protetti da copyright.

UE vs USA: tante le differenze

A fine novembre Curtis LeGeyt, presidente e amministratore delegato della National Association of Broadcasters americana ha partecipato a un forum di approfondimento sull’intelligenza artificiale promosso dal Senato degli Stati Uniti ed intitolato “Trasparenza, comprensibilità, proprietà intellettuale e copyright”.

In quel contesto LeGeyt ha sottolineato il ruolo vitale dei broadcaster locali nel fornire notizie, sport e intrattenimento affidabili, mentre l’intelligenza artificiale generativa negli USA sta procedendo senza alcuna regola e, ormai è cosa nota, viene spesso utilizzata per diffondere fake news e disinformazione.

Inoltre LeGeyt ha espresso la critica del settore rispetto all’uso non autorizzato da parte delle piattaforme di AI dei contenuti protetti da copyright di proprietà delle emittenti. Un’appropriazione non remunerata, indebita e nociva per il futuro dell’informazione.

In sintesi, da tale incontro è emerso che se gli States sono la vera e propria culla dello sviluppo dell’AI a livello globale, dall’altro ciò avviene in un contesto del tutto privo di regolamentazione. Questa lacuna normativa può essere causa di gravi conseguenze per molti mercati e a livello globale.

Consapevolezza dei rischi

Per ogni broadcaster è imperativo, oggi più che mai, migliorare l’efficienza della propria emittente, non a scapito della qualità dei contenuti, anche considerando che il pubblico si fa sempre più esigente. Ecco perché l’AI, soprattutto generativa, può rappresentare una formidabile alleata nell’ottimizzare i processi aziendali, dalla produzione di originali contenuti grafici, statici ed animati, o sonori (sigle, jingle, promo, basi…), così come per l’organizzazione della redazione, per la raccolta di contenuti informativi e per i reparti di produzione.

Contestualmente è altrettanto chiaro che l’utilizzo di piattaforme di intelligenza artificiale come ChatGPT di OpenAI, Bing AI di Microsoft o Bard di Google, solo per citare qualche esempio, comporta rischi, che vanno dal rispetto, o meno, delle leggi sul copyright, al pericolo di alimentare la diffusione di fake news.

In questo senso e per quanto sopra detto, l’UE con il suo Artificial Intelligence Act e i contestuali Digital Service Act e Digital Markets Act è, tutto sommato, già piuttosto pronta per affrontare queste sfide, mentre gli USA devono ancora fare molto, per non dire tutto, dal momento che la legislazione statunitense ancora non prevede alcuna specifica normativa per un appropriato controllo sullo sviluppo dell’AI.

Ecco perché ogni broadcaster, a prescindere dalla propria dimensione di impresa, ma responsabile e consapevole delle due facce di questa medaglia, dovrà effettuare scelte ben ponderate in termini di implementazione dell’AI nei propri processi produttivi; nel valutare ogni soluzione commerciale disponibile dovrà tenere bene in conto, in particolare, di quanto i fornitori scelti siano compliant o meno con le regole vigenti e in via di applicazione specificamente in Europa. (AR)

 

Vedi anche:

Spot Tv generati dall’AI: opportunità interessante, ma da gestire

ChatGPT come ‘fonte’ giornalistica? Meglio andarci cauti.

L’AI negli studi televisivi alleata preziosa

Gli 8 temi clou del futuro Tv ad IBC2023