0 Liked
  • Da: Assostampa FVG
  • giugno 18, 2025

GIORNALISMO E INTELLIGENZA ARTIFICIALE

L’intelligenza artificiale è il convitato di pietra della trattativa sul contratto dei giornalisti con gli editori della Fieg. Non potrebbe essere diversamente. Questi sistemi rappresentano un modo per aiutare cittadini e professionisti, nella versione più soft più nella derivazione da chatbot, con un ruolo di aiuto pratico nelle varie fasi di produzione di un contenuto giornalistico e/o sono anche un modo per cambiare il mondo del lavoro sostituendo gli esseri umani, in nome della produttività o dalla liberazione dai bisogni (e dallo stesso lavoro). Un tornante epocale se anche il nuovo pontefice ha scelto il suo nome, Leone, richiamando quello di un predecessore che ai tempi della rivoluzione industriale intravide un nuovo spazio di umanesimo con la dottrina sociale della chiesa. Ne abbiamo parlato in generale e nello specifico dell’uso dell’intelligenza artificiale nel giornalismo con Guido Scorza, membro dell’autorità del garante per la protezione dei dati personali, avvocato, docente universitario e giornalista pubblicista.

L’intelligenza artificiale prevede sistemi di addestramento. Questi sistemi sono molto spesso opachi in merito all’acquisizione e alla gestione dei dati. In questi mesi, da quando l’intelligenza artificiale è diventata il nuovo standard come se si trattasse di una seconda rivoluzione industriale e siete stati chiamati in causa, intervenendo su queste vicende, avete visto un cambio di passo da parte delle aziende, in larghissima misura statunitensi?

Nella maggior parte dei casi, le aziende coinvolte hanno sistemi giuridici molto più lenti e molto più laschi dei nostri. Tuttavia abbiamo visto che in qualche modo si stanno ritarando sul nostro sistema europeo/italiano. Oggi possiamo dire che tutte le aziende – anche quelle statunitensi – si stiano ponendo il problema se si possono trattare quei dati per addestrare gli algoritmi e cosa si deve fare per trattarli legittimamente.  Credo che più o meno tutte se lo siano poste o se lo stiano ponendo e hanno trovato risposte diverse, non necessariamente tutte condivisibili. 

L’ultimo esempio in questi ultimi giorni arriva da Meta. A differenza di altri attori, quanto meno ha detto agli utenti di Facebook una cosa del genere “dalla fine di maggio, se non mi dici il contrario, inizio a trattare i dati personali che hai pubblicato per addestrare gli algoritmi. È lontana da me l’idea di dire che sia sufficiente, però segna sicuramente un balzo in avanti almeno in termini di trasparenza. In passato OpenAi, per citarne uno, ma potrei dire anche Google, hanno addestrato i loro algoritmi senza dirci nulla e men che meno che avessimo il diritto di opposizione. Insomma sull’addestramento degli algoritmi da parte delle fabbriche degli algoritmi riscontro una accresciuta consapevolezza del problema in attesa di soluzioni stabili”.

Come funziona concretamente? Le big tech americane si rivolgono al garante europeo o a quello italiano, facendovi qualche domanda preventiva oppure ve ne accorgete in tempo reale come tutti gli altri utenti, magari dalle notifiche sui social?

“Succede l’una e l’altra cosa in assenza di una regola o di una best practice generale. Il primo varco d’accesso in Europa passa dal paese presso il quale la società extra europea ha il suo stabilimento europeo principale. Non è quasi mai l’Italia, è quasi sempre l’Irlanda, in particolare Dublino. Solo a volte c’è un dialogo tra la società e i nostri colleghi di Dublino che condividono le informazioni con le altre autorità di garanzia della privacy in Europa. 

E quindi accade che scopriamo a valle semplicemente osservando il mercato in qualche caso o sulla base di qualche segnalazione ciò che è stato lanciato,. un certo servizio che presuppone un qualche trattamento di dati personali. Se l’utente è preoccupato per una gestione inappropriata del suo dato personale può fare una segnalazione al garante che a quel punto fa le sue valutazioni sulla fondatezza e sulla rilevanza del reclamo, decidendo se agire o meno. Il garante nel caso di reclamo sulla base di una “lesione del dato personale” deve sempre intervenire”.

In un modo ideale, se il contratto col social network cambia perché nel frattempo è subentrato l’uso dell’intelligenza artificiale, dovrebbero rifare daccapo il contratto. Non sembra una forzatura del contraente più forte quella di cambiare le clausole negoziali e di chiedere all’utente finale solo il consenso o il dissenso finale su un testo e una possibilità, nel nostro caso l’AI generativa, sulla quale non ha avuto alcun margine di trattativa? Non sarebbe necessaria una doppia conforme su un nuovo contratto?

“L’ecosistema digitale è sperequato e ricco di asimmetrie. Ed è vero che il contraente forte non è un semplice fornitore professionista, ma un oligopolista dotato di un enorme potere informativo. Internet, ovvero la piazza democratica più grande della storia a disposizione dell’umanità, è diventata presto una cosa completamente diversa e ciò si riflette nelle questioni della privacy. La manifestazione di volontà e di consenso me la chiede il soggetto che mi fornisce un servizio che è diventato importante, persino essenziale nelle nostre vite, quindi il margine di manovra del cittadino è negozialmente modesto. Oggi si va verso la direzione di garantire almeno più consapevolezza all’utente”.

In base alle norme italiane ed europee cosa non deve assolutamente fare l’ intelligenza artificiale.

“A monte gli algoritmi di intelligenza artificiale dovrebbero essere addestrati solo ed esclusivamente su dati utilizzabili a quel fine. Non lo sono per definizione tutti i dati cosiddetti particolari e sensibili, quelli attinenti alla salute, alla religione, alla politica, al sesso. Chi invece ha fatto web scraping negli scorsi anni probabilmente ha “buttato tutto dentro” senza distinzione. Nelle intelligenze artificiali di tipo generativo bisognerebbe garantire l’associazione al mio nome e al mio cognome di dati esatti. 

Non posso ritrovarmi con una risposta che indichi Guido Scorza come un evasore fiscale. Moltissime aziende utilizzano l’intelligenza artificiale per fare un pre screening dei curricula in fase di selezione del personale. Dovrebbero scongiurare ogni rischio di discriminazione, scongiurare per esempio discriminazioni di genere tra uomo e donna. L’intelligenza artificiale non dovrebbe essere mai utilizzata per implementare soluzioni dal punto di vista del governo di sorveglianza di massa, penso all’uso del riconoscimento facciale”.

Dopo aver tracciato le linee generali arriviamo al giornalismo. Il nostro mestiere dovrebbe essere al servizio della “verità sostanziale dei fatti” secondo la definizione della legge ordinistica. Se è così è inevitabile che macchine che vogliano essere molto affidabili per la verità delle informazioni acquisite abbiano bisogno delle notizie come il miglior carburante possibile. Però è anche vero che magari un caso di omonimia possa essere trattato in modo totalmente inappropriato con effetti potenzialmente devastanti. Un effetto da pappagallo stocastico. Non dev’essere un po’ più rafforzata l’intercapedine tra strumenti di intelligenza artificiale e giornalismo, posto che anche il giornalismo come tutte le altre attività industriali umane, ne farà uso?

“Non c’è nessun dubbio che il giornalismo usi e userà strumenti di intelligenza artificiale e sarebbe veramente sciocco provare a fermare il futuro a mani nude. Tra l’altro la professione del giornalista è ampiamente basata sulla creazione di un contenuto e la generazione di contenuti è evidentemente uno degli avamposti, una delle punte dell’iceberg dell’intelligenza artificiale. Il vero tema è come il giornalista e l’editore usino l’intelligenza artificiale. 

Nelle redazioni possono già essere utilizzati metodi di questo tipo ma quello che si può fare è il figlio di scelte umane che possono essere fatte in mille modi diversi, aprendo una enorme questione di carattere culturale. Che l’intelligenza artificiale possa essere usata per correggere una bozza è un utilizzo sicuramente virtuoso. Che l’intelligenza artificiale possa essere utilizzata per proporre al giornalista dei titoli o per proporre al giornalista una versione da utilizzare per il digitale, una sintesi dell’articolo sotto il controllo del giornalista che ha scritto il pezzo e quindi lo conosce perfettamente, anche. In questi casi l’intelligenza artificiale libera il tempo e l’uomo delega alla macchina un’attività moderatamente creativa e ampiamente compilativa. Lo scenario cambia se si chiede alla macchina di scrivere dei pezzi al posto del giornalista. 

Qui il salto è  quantico perché non discutiamo più del come, ma discutiamo del cosa. E si potrebbe sottrarre al professionista il suo specifico, il compito di cercare e mettere in fila i fatti e di raccontarli in maniera compiuta. Potrebbe essere una questione deontologica dichiararne l’uso nella firma dei pezzi ma più passerà il tempo, sempre più spesso saremo aiutati dall’intelligenza artificiale un po’ come oggi avviene con i motori di ricerca, rendendo abitudinario e quotidiano l’uso.

Più in generale questo tema deve diventare una questione sociale, cioè una questione di negoziazione nei posti di lavoro del corretto impiego della macchina in modo tale che non ci sia mai uno scavalcamento di campo o una sostituzione. Quindi non c’è nulla che ostacoli uno spazio di negoziazione da questo punto di vista per le parti sociali, incluso il sindacato dei giornalisti, sapendo che gli interessi possono anche essere divergenti perché gli imprenditori guardano a mercato e concorrenza, in un mercato in cui sembra contare più la quantità della qualità delle informazioni, e i giornalisti alla correttezza del quadro informativo. 

Sembra un contesto nel quale sarebbe necessaria una soft law, una regolamentazione leggera in maniera tale da ritrovarsi tutti sulla stessa linea di partenza, come se fosse una finale olimpica dei duecento. Tutti percorrono la stessa distanza in corsie diverse senza usare doping perché hanno condiviso un sistema di regole comuni”.

Il Garante si è già occupato di rapporto tra intelligenza artificiale ed editoria a proposito del gruppo Gedi. E’ l’unico caso trattato? Ce ne sono altri? Qual è lo stato di avanzamento della pratica Gedi?

“Noi abbiamo un’istruttoria aperta nei confronti di Gedi per l’accordo annunciato con OpenAI sulla cessione dell’archivio storico del giornale in relazione all’addestramento degli algoritmi. L’istruttoria riguarda l’editore Gedi non OpenAi almeno su questa vicenda. L’istruttoria è nelle fasi iniziali”.

Un tema emerso anche sindacalmente riguarda gli ex colleghi, oggi in pensione, che hanno scritto per Repubblica. Quando erano assunti per il giornale hanno ceduto la loro prestazione lavorativa all’editore e non a terze parti. Per questo motivo reputano improprio che con il loro lavoro “storico” si possa allenare l’intelligenza artificiale. E’ un dubbio legittimo?

“Ci sono diverse questioni che si intrecciano in relazione a questa vicenda. C’è una questione che riguarda la cessione dei diritti di proprietà intellettuale, anche quelli futuri, persino quelli inimmaginabili al tempo delle scrittura dell’articolo. E’ una questione da trattare all’interno dei diritti d’autore  sui quali comunque in quei contratti si immaginava un potenziale trasferimento della prestazione lavorativa. Naturalmente i contratti andrebbero esaminati caso per caso. 

Altra questione più attinente al nostro perimetro è se l’editore possa servirsi dei dati personali contenuti negli articoli dei giornalisti. L’editore al tempo della scrittura ha trattato questi dati personali, ma bisogna verificare se oggi quei dati possano godere di rilievo pubblico, visto che alimentano l’intelligenza artificiale. Bisogna verificare se l’eccezione legata al diritto di cronaca possa ancora valere dopo che è trascorso così tanto tempo”.

Proprio su questo incrocio tra diritto alla privacy e diritto all’oblio torno a chiederti se i margini della cronaca giornalistica, di una informazione pertinente e corretta si stiano restrigendo troppo al punto da arrivare a casi estremi in cui in immagini di repertorio riprese tanti anni fa bisogna pixellare i passanti.

“Il diritto all’immagine non si affievolisce come non si affievolisce il diritto alla privacy in ragione del tempo che passa. Dipende molto dal contesto. Ad esempio, non ho diritto ad una privacy diciamo così estesa o aumentata in relazione alla mia immagine di sfondo se sto camminando su una strada. Se invece io cammino su quella strada e magari cammino vestito in maniera eccentrica o pongo in essere dei comportamenti particolari in assenza di un interesse pubblico, allora lì la mia privacy riemerge. Più che il tempo è il contesto che affievolisce o aumenta il diritto alla privacy”. 

(Lazzaro Pappagallo, giunta Fnsi)