Intelligenza artificiale ed etica: l’intervista di Assostampa al giurista Guido Scorza
Trieste – Una importante intervista sull’etica dell’intelligenza artificiale (IA) ed in particolare sull’acquisizione di dati per il suo “addestramento”: la offre Assostampa e riteniamo importante farne conoscere alcuni stralci rilevanti a voi amici lettori.
Infatti, se leggete questo articolo, siete utenti di Internet e in quanto tali potenziali “addestratori” – con i vostri dati personali – dei modelli di IA. Inoltre, l’uso della IA sta cambiando radicalmente la diffusione delle notizie ed è importante, per noi professionisti come per voi utenti, esserne consapevoli.
Ecco di seguito l’intervista di Assostampa.
Intervista all’avv. Guido Scorza
I sistemi di intelligenza artificiale rappresentano un modo per aiutare cittadini e professionisti, nella versione più soft della derivazione da chatbot, con un ruolo di aiuto pratico nelle varie fasi di produzione di un contenuto giornalistico.
Tuttavia sono anche un modo per cambiare il mondo del lavoro sostituendo gli esseri umani, in nome della produttività o dalla liberazione dai bisogni (e dallo stesso lavoro).
Un tornante epocale, se anche il nuovo pontefice ha scelto il suo nome, Leone, richiamando quello di un predecessore che ai tempi della rivoluzione industriale intravide un nuovo spazio di umanesimo con la dottrina sociale della chiesa. Ne abbiamo parlato in generale e nello specifico dell’uso dell’intelligenza artificiale nel giornalismo con Guido Scorza, membro dell’autorità del garante per la protezione dei dati personali, avvocato, docente universitario e giornalista pubblicista.
L’intelligenza artificiale prevede sistemi di addestramento. Questi sistemi sono molto spesso opachi in merito all’acquisizione e alla gestione dei dati. In questi mesi, da quando l’intelligenza artificiale è diventata il nuovo standard come se si trattasse di una seconda rivoluzione industriale e siete stati chiamati in causa, intervenendo su queste vicende, avete visto un cambio di passo da parte delle aziende, in larghissima misura statunitensi?
“Nella maggior parte dei casi, le aziende coinvolte hanno sistemi giuridici molto più lenti e molto più laschi dei nostri. Tuttavia abbiamo visto che in qualche modo si stanno ritarando sul nostro sistema europeo/italiano. Oggi possiamo dire che tutte le aziende – anche quelle statunitensi – si stiano ponendo il problema se si possono trattare quei dati per addestrare gli algoritmi e cosa si deve fare per trattarli legittimamente. Credo che più o meno tutte se lo siano poste o se lo stiano ponendo e hanno trovato risposte diverse, non necessariamente tutte condivisibili.
L’ultimo esempio in questi ultimi giorni arriva da Meta. A differenza di altri attori, quanto meno ha detto agli utenti di Facebook una cosa del genere: “dalla fine di maggio, se non mi dici il contrario, inizio a trattare i dati personali che hai pubblicato per addestrare gli algoritmi”. È lontana da me l’idea di dire che sia sufficiente, però segna sicuramente un balzo in avanti almeno in termini di trasparenza. In passato OpenAi, per citarne uno, ma potrei dire anche Google, hanno addestrato i loro algoritmi senza dirci nulla e men che meno che avessimo il diritto di opposizione. Insomma sull’addestramento degli algoritmi da parte delle fabbriche degli algoritmi riscontro una accresciuta consapevolezza del problema in attesa di soluzioni stabili”.
Come funziona concretamente? Le big tech americane si rivolgono al garante europeo o a quello italiano, facendovi qualche domanda preventiva oppure ve ne accorgete in tempo reale come tutti gli altri utenti, magari dalle notifiche sui social?
“Succede l’una e l’altra cosa in assenza di una regola o di una best practice generale. Il primo varco d’accesso in Europa passa dal paese presso il quale la società extra europea ha il suo stabilimento europeo principale. Non è quasi mai l’Italia, è quasi sempre l’Irlanda, in particolare Dublino. Solo a volte c’è un dialogo tra la società e i nostri colleghi di Dublino che condividono le informazioni con le altre autorità di garanzia della privacy in Europa.
E quindi accade che scopriamo a valle semplicemente osservando il mercato in qualche caso o sulla base di qualche segnalazione ciò che è stato lanciato, un certo servizio che presuppone un qualche trattamento di dati personali. Se l’utente è preoccupato per una gestione inappropriata del suo dato personale può fare una segnalazione al garante che a quel punto fa le sue valutazioni sulla fondatezza e sulla rilevanza del reclamo, decidendo se agire o meno. Il garante nel caso di reclamo sulla base di una “lesione del dato personale” deve sempre intervenire.
In un modo ideale, se il contratto col social network cambia perché nel frattempo è subentrato l’uso dell’intelligenza artificiale, dovrebbero rifare daccapo il contratto. Non sembra una forzatura del contraente più forte quella di cambiare le clausole negoziali e di chiedere all’utente finale solo il consenso o il dissenso finale su un testo e una possibilità, nel nostro caso l’AI generativa, sulla quale non ha avuto alcun margine di trattativa? Non sarebbe necessaria una doppia conforme su un nuovo contratto?
“L’ecosistema digitale è sperequato e ricco di asimmetrie. Ed è vero che il contraente forte non è un semplice fornitore professionista, ma un oligopolista dotato di un enorme potere informativo. Internet, ovvero la piazza democratica più grande della storia a disposizione dell’umanità, è diventata presto una cosa completamente diversa e ciò si riflette nelle questioni della privacy. La manifestazione di volontà e di consenso me la chiede il soggetto che mi fornisce un servizio che è diventato importante, persino essenziale nelle nostre vite, quindi il margine di manovra del cittadino è negozialmente modesto. Oggi si va verso la direzione di garantire almeno più consapevolezza all’utente”.
In base alle norme italiane ed europee cosa non deve assolutamente fare l’ intelligenza artificiale?
“A monte gli algoritmi di intelligenza artificiale dovrebbero essere addestrati solo ed esclusivamente su dati utilizzabili a quel fine. Non lo sono per definizione tutti i dati cosiddetti particolari e sensibili, quelli attinenti alla salute, alla religione, alla politica, al sesso. Chi invece ha fatto web scraping negli scorsi anni probabilmente ha “buttato tutto dentro” senza distinzione. Nelle intelligenze artificiali di tipo generativo bisognerebbe garantire l’associazione al mio nome e al mio cognome di dati esatti.
Non posso ritrovarmi con una risposta che indichi Guido Scorza come un evasore fiscale. Moltissime aziende utilizzano l’intelligenza artificiale per fare un pre screening dei curricula in fase di selezione del personale. Dovrebbero scongiurare ogni rischio di discriminazione, scongiurare per esempio discriminazioni di genere tra uomo e donna. L’intelligenza artificiale non dovrebbe essere mai utilizzata per implementare soluzioni dal punto di vista del governo di sorveglianza di massa, penso all’uso del riconoscimento facciale”.
Dopo aver tracciato le linee generali arriviamo al giornalismo. Il nostro mestiere dovrebbe essere al servizio della “verità sostanziale dei fatti” secondo la definizione della legge ordinistica. Se è così è inevitabile che macchine che vogliano essere molto affidabili per la verità delle informazioni acquisite abbiano bisogno delle notizie come il miglior carburante possibile. Però è anche vero che magari un caso di omonimia possa essere trattato in modo totalmente inappropriato con effetti potenzialmente devastanti. Un effetto da pappagallo stocastico. Non dev’essere un po’ più rafforzata l’intercapedine tra strumenti di intelligenza artificiale e giornalismo, posto che anche il giornalismo come tutte le altre attività industriali umane, ne farà uso?
“Non c’è nessun dubbio che il giornalismo usi e userà strumenti di intelligenza artificiale e sarebbe veramente sciocco provare a fermare il futuro a mani nude. Tra l’altro la professione del giornalista è ampiamente basata sulla creazione di un contenuto e la generazione di contenuti è evidentemente uno degli avamposti, una delle punte dell’iceberg dell’intelligenza artificiale. Il vero tema è come il giornalista e l’editore usino l’intelligenza artificiale.
Nelle redazioni possono già essere utilizzati metodi di questo tipo ma quello che si può fare è il figlio di scelte umane che possono essere fatte in mille modi diversi, aprendo una enorme questione di carattere culturale. Che l’intelligenza artificiale possa essere usata per correggere una bozza è un utilizzo sicuramente virtuoso. Che l’intelligenza artificiale possa essere utilizzata per proporre al giornalista dei titoli o per proporre al giornalista una versione da utilizzare per il digitale, una sintesi dell’articolo sotto il controllo del giornalista che ha scritto il pezzo e quindi lo conosce perfettamente, anche. In questi casi l’intelligenza artificiale libera il tempo e l’uomo delega alla macchina un’attività moderatamente creativa e ampiamente compilativa. Lo scenario cambia se si chiede alla macchina di scrivere dei pezzi al posto del giornalista.
Qui il salto è quantico perché non discutiamo più del come, ma discutiamo del cosa. E si potrebbe sottrarre al professionista il suo specifico, il compito di cercare e mettere in fila i fatti e di raccontarli in maniera compiuta. Potrebbe essere una questione deontologica dichiararne l’uso nella firma dei pezzi ma più passerà il tempo, sempre più spesso saremo aiutati dall’intelligenza artificiale un po’ come oggi avviene con i motori di ricerca, rendendo abitudinario e quotidiano l’uso.
Più in generale questo tema deve diventare una questione sociale, cioè una questione di negoziazione nei posti di lavoro del corretto impiego della macchina in modo tale che non ci sia mai uno scavalcamento di campo o una sostituzione. [….]
(a cura di Lazzaro Pappagallo, giunta Fnsi)