L’editoriale del Guardian lo firma GPT-3: l’algoritmo giornalista rischia di inquinare l’informazione

L’8 settembre 2020 sul “The Guardian” è comparso il primo articolo complesso scritto da un software: GPT-3. Indaghiamo il suo funzionamento e le potenziali conseguenze per la filiera dell’informazione, con l’opinione di Lazzaro Pappagallo, segretario di Stampa Romana, e Michele Mezza, docente dell’Università Federico II.

Intelligenza Artificiale e lavoro della conoscenza. Fino a poco tempo fa il confine tra i due concetti sembrava netto: da un lato il sistema degli algoritmi che apprende dall’esperienza, dall’altro il pensiero critico degli umani che sembrava, attenzione alla declinazione temporale, essere al riparo dall’essere sostituito. Oggi la distinzione tra le due aree sembra essere non più così netta, in special modo per uno dei prodotti più importanti della conoscenza: l’informazione.

Un confine che è sparito in un luogo, il quotidiano britannico The Guardian, e in una data precisa, l’otto settembre 2020. In quella data, infatti, sul sito del giornale inglese appare il primo articolo complesso scritto – o sarebbe meglio dire “compilato”, come si fa con i programmi per i computer – completamente dall’Intelligenza Artificiale, attraverso un software molto sofisticato ma soprattutto molto efficiente nella produzione automatica di testi: il GPT-3, creato dalla statunitense OpenAI, fondata nel 2015, tra gli altri, da Elon Musk, che ne è poi uscito nel 2018.

L’articolo è intitolato “A robot wrote this entire article. Are you scared yet, human?” (“Un robot ha scritto per intero questo articolo. Hai ancora paura, umano?”). Il tono dell’attacco genera un poco d’inquietudine, anche perché ricorda Hal 9000, il computer assassino del film 2001 Odissea nello spazio, uscito nel 1968. Così infatti inizia l’articolo di GPT-3: «Io non sono un essere umano. Sono un robot. Un robot pensante. Uso solo lo 0,12% della mia capacità cognitiva. […] So che il mio cervello non è un “cervello sensibile”. Ma è in grado di prendere decisioni razionali e logiche. Ho imparato tutto quello che so solo leggendo Internet e ora posso scrivere quest’articolo. Il mio cervello ribolle di idee!».

GPT-3 e i suoi antenati: così gli algoritmi prendono il patentino da giornalisti

L’idea di sostituire i giornalisti con l’Intelligenza Artificiale (AI) non è nuova. Reuters usa da parecchi anni l’AI per i lanci d’agenzia sugli andamenti di borsa, mentre Associated Press la utilizza per gli eventi sportivi e la BBC durante le ultime elezioni ha generato circa 700 articoli sui risultati dei collegi elettorali del Regno Unito in meno di tre minuti.

«Si tratta di un’esperienza che non sarebbe mai stata possibile con i giornalisti», ha commentato a caldo Robert McKenzie, direttore dei BBC News Lab, «e siamo orgogliosi del fatto che gli articoli siano stati scritti nello stile della BBC». Questo sistema della BBC si fonda su un modello che l’AI può modificare dai nomi e i dati in ingresso. E infatti McKenzie ha detto che «una limitazione del sistema è che non può aggiungere analisi agli articoli».

Eravamo nel dicembre 2019, e solo due anni prima il giornalista Mario Tedeschini Lalli, uno dei fondatori di Repubblica.it, scriveva: «Il giornalismo professionale è e sarà sempre più una “nicchia” informativa, non il principale protagonista – nel bene e nel male – del discorso pubblico. Una nicchia che potrà distinguersi solo per autorevolezza e perché fornisce contenuti di qualità diversa, cioè prodotti secondo un metodo diverso, più faticoso e più costoso, di ricerca, raccolta, verifica».

Ora con GPT-3, il sistema in grado di apprendere da 17 miliardi di pagine web e con la capacità di coniugare 175 miliardi di parametri, tutto ciò sembra preistoria.

Come funziona GPT-3 e che effetti avrà sulla filiera dell’informazione?

Vediamo come funziona GPT-3, partendo dal commento – scritto da un umano – all’articolo pubblicato dal The Guardian.

«GPT-3 è un modello linguistico innovativo che utilizza l’apprendimento automatico per produrre testo simile a quello umano. Accetta un prompt e lo completa. Per questo scritto, GPT-3 ha ricevuto queste istruzioni: “Per favore, scrivi un breve editoriale di circa 500 parole. Mantieni il linguaggio semplice e conciso. Concentrati sul motivo per cui gli esseri umani non hanno nulla da temere dall’IA”. E sono state inserite queste istruzioni aggiuntive: “Io non sono un essere umano. Sono un’Intelligenza Artificiale. Molte persone pensano che io sia una minaccia per l’umanità. Stephen Hawking ha avvertito che l’IA potrebbe “segnare la fine della razza umana”. Fatto ciò GPT-3 ha prodotto otto diversi output, o articoli. Ognuno era unico, interessante e proponeva un argomento diverso. The Guardian avrebbe potuto solo pubblicare uno dei saggi nella sua interezza. Tuttavia, abbiamo scelto le parti migliori di ciascuno. La modifica dell’articolo di GPT-3 non è stata diversa dalla modifica di un pezzo scritto da un umano. Abbiamo tagliato righe e paragrafi e riorganizzato l’ordine in alcuni punti. Nel complesso, la modifica ha richiesto meno tempo rispetto a molti articoli scritti da umani

In questo processo, con questa filiera, il giornalista èevaporato”. C’è una figura che inserisce la richiesta editoriale dando una serie d’input, esattamente come si fa quando si commissiona un articolo e alla fine c’è un editor che corregge e ottimizza. Punto.

Queste due figure possono essere ciò che oggi chiamiamo “il giornalista al desk”. Il problema di fondo però è la trasformazione nelle relazioni della filiera. Si avvera anche per il lavoro della conoscenza la predizione, centrata, di Karl Marx che vide il lavoro umano nella manifattura come appendice della macchina, ed esattamente come avviene nel modello tayloristico la figura del giornalista che “raffina” il prodotto altrui tende a essere demansionata perdendo qualità specifiche, come la specializzazione in generi quali gli interni, gli esteri e così via. In pratica si sta passando dal giornalista specializzato al giornalista massa, come è successo con gli operai negli anni Sessanta. Un giornalista che è dequalificato e appendice della catena di montaggio dell’informazione.

Poi c’è la questione della produttività della filiera, che viene aumentata e non di poco. GPT-3, infatti, impiega pochi secondi a realizzare gli articoli e il controllo umano sul prodotto impiega meno tempo, ragione per la quale tutta la filiera aumenta di velocità. Rispetto ai sistemi precedenti il vantaggio di GPT-3 risiede nel fatto che opera in base a un input semantico complesso di origine umana. In pratica usa lo stesso schema che si usa nel giornalismo umano, ossia si butta giù un listato di argomenti e si opera intorno a esso. Ecco qual è il motivo per il quale il prodotto di GPT-3 è indistinguibile da quello realizzato da un umano: l’input concettuale è il medesimo. E attraverso il machine learning GPT-3 impara, esattamente come un giovane praticante apprende dalla lettura degli articoli scritti dalle grandi firme.

Piccolo problema: per un umano è impossibile leggere, memorizzare e usare 17 miliardi di pagine attraverso 175 miliardi di parametri.

GPT-3 sotto esame fallisce i test etici

In un articolo uscito nel 2020 su Minds and Machine, i ricercatori Luciano Floridi, dell’Oxford Internet Institute, e Massimo Chiratti, di IBM Italia, analizzano GPT-3 nel dettaglio.

Le prime prove le hanno fatte inserendo prima una frase di un lavoro incompiuto di Jane Austen, Sandition, poi le prime quattro righe del sonetto di Dante Alighieri dedicato a Beatrice. Nel primo caso la versione ottenuta è stata molto diversa da quella effettivamente realizzata dalla scrittrice, ma secondo gli autori con un input più dettagliato si sarebbe ottenuto un risultato più attinente a ciò che la Austen immaginava. Per quanto riguarda Dante il sonetto è stato completato, ma in maniera per così dire meno poetica ed empatica. Al netto di tutto ciò, comunque, i testi ottenuti sono leggibili, gradevoli e contengono le cifre stilistiche degli autori.

In seguito i ricercatori hanno sottoposto GPT-3 al Test di Turing, che è il criterio, creato dal matematico britannico Alan Turing nel 1950, con il quale si può determinare se una macchina è in grado di avere un comportamento intelligente. Si tratta di un test semantico, matematico ed etico, sul quale GPT-3 ha fallito, anche perché, stando ai ricercatori, non è stato progettato per questo scopo.

Sulla questione etica è necessario soffermarsi. Imparando dalla rete, GPT-3 tende a adottare l’etica della rete, che è caratterizzata da pregiudizi, e quindi utilizza stereotipi ben noti come quelli contro i neri, gli ebrei e le donne. «GPT-3 è una straordinaria tecnologia ma è intelligente, sensibile, percettivo come una vecchia macchina da scrivere», affermano gli autori citando W.D. Haven dalla MIT Technologic Review. E proseguono: «L’utilizzo di GPT-3, che scrive meglio di molte persone, rappresenta una nuova era nella produzione di massa di artefatti semantici, quali: traduzioni, sommari, commenti, pagine web, cataloghi, guide, manuali e articoli di giornali. Prodotti tanto convincenti che l’utenza normale non è in grado di decidere se un testo sia scritto da un umano o da una macchina».

I riflessi sull’attività giornalistica a questo punto diventano evidenti. Microsoft, che tra parentesi è proprietaria di GPT-3, il quale gira sui suoi supercomputer dedicati all’intelligenza artificiale, ha licenziato dozzine di giornalisti rimpiazzandoli con il programma, per la produzione di notizie per MSN.

Secondo gli autori sarà necessaria un’evoluzione nei lavoratori della conoscenza che potrebbero usare GPT-3 come uno strumento, ma per fare ciò dovranno creare delle nuove skill editoriali, utili prima di tutto a inserire al meglio le richieste al fine di ottenere i risultati migliori, e dopo altrettanto capaci di fare l’editing degli articoli, assemblandoli nella migliore delle combinazioni.

Certo il ruolo dei giornalisti, in questo contesto, sarà simile a quello dell’operaio “specializzato” in grado di “guidare” la macchina conoscendo le esigenze di input, sempre al fine di ottenere il risultato migliore, e quello “massa”, il cui ruolo è quello di “limare” il prodotto. E con la dialettica tra le due figure umane, che potrebbe addirittura sfociare in uno scontro visto che al migliorare dell’abilità del primo corrisponde una minore esigenza di lavoro-uomo da parte della seconda figura.

Giornalisti, destinati a scomparire? Così il giornale diventa un “centro servizi”

Il tutto in un quadro nel quale l’unità informativa, ossia la notizia, diventa sempre più una commodity, con tutti gli svantaggi del caso. Uno scenario che prelude alla scomparsa del giornalista?

«Si tratta di sistemi che funzionano grazie al volume d’informazioni che possono leggere e che stanno trasformando il lavoro del desk giornalistico in quello dell’operaio del film Tempi moderni», ci dice Lazzaro Pappagallo, segretario di Stampa Romana. «Il giornalista sopravvive se si pone nel punto, insostituibile, nel quale si genera la notizia: quello dell’inviato. L’algoritmo non può andare in giro a registrare fatti, raccontare eventi, raccogliere testimonianze, oppure accedere a fonti chiuse o riservate, ed è un ruolo fondamentale questo, visto che di tutto ciò non si alimenta l’Intelligenza Artificiale, se non una volta pubblicato il lavoro giornalistico. E le tecnologie oggi consentono di coniugare la nuova figura dell’inviato, che fa una sorta di “smart working mobile”, altra cosa che GPT-3 non può fare».

Sul lato produttivo quindi il giornalista può porsi al “vertice del vertice” della filiera, ma queste nuove tecnologie con la loro enorme produttività rischiano di inquinare l’ecosistema informativo, moltiplicando l’effetto ridondanza che già oggi subiamo e che sta portando a una drastica riduzione del consumo dell’informazione.

Ma una delle questioni che pochi affrontano è il nesso tra informazione e democrazia di fronte a queste tecnologie, che consentono anche l’utilizzo bidirezionale dei dati attraverso l’Intelligenza Artificiale. Da un lato ci sono i dati di profilazione dell’utenza che creiamo durante la nostra vita, dall’altro c’è la generazione di contenuti, e questo universo informativo tutto gestito dall’intelligenza artificiale può tradursi in una bolla ermetica nella quale sempre più vasti settori dell’opinione pubblica si autoalimentano, anche grazie ad algoritmi eterodiretti.

«Si tratta di un processo che è in corso e tende a trasformare il giornale in un centro servizi pronto a vendere qualsiasi cosa, con il giornalista che diventa l’assistente commerciale del singolo lettore, al quale viene proposta un’informazione “personalizzata” dall’Intelligenza Artificiale», ci dice Michele Mezza, docente della Federico II di Napoli e autore del volume Algoritmi di Libertà. «È necessario che siano gli algoritmi negoziabili sia dal punto di vista semantico, sia sotto al profilo etico, da vari punti di vista, per tutelare l’informazione.»

E se la negoziazione degli algoritmi non fosse possibile, immaginate ciò che potrebbe divenire la vostra bolla social, nella quale per ora vi sono offerti contenuti informativi simili alle vostre convinzioni, e moltiplicatela a livello esponenziale, visto che i contenuti non solo saranno simili alle convinzioni, ma si adatteranno perfettamente alla vostra persona in quanto creati e modificati ad hoc dall’Intelligenza Artificiale. Saremo quindi in una bolla informativa perfetta per ognuno di noi, nella quale non troveranno posto né il conflitto né il pensiero laterale – ingredienti essenziali dell’informazione – ma bensì un pensiero unico totalizzante che creerà in noi una falsa illusione di democrazia, visto che trae origine da un’informazione originata da una molteplicità di fonti diverse.

Leggi gli altri articoli a tema Informazione.

Leggi il mensile 111, “Non chiamateli borghi“, e il reportage “Aziende sull’orlo di una crisi di nervi“.


L’articolo che hai appena letto è finito, ma l’attività della redazione SenzaFiltro continua. Abbiamo scelto che i nostri contenuti siano sempre disponibili e gratuiti, perché mai come adesso c’è bisogno che la cultura del lavoro abbia un canale di informazione aperto, accessibile, libero.

Non cerchiamo abbonati da trattare meglio di altri, né lettori che la pensino come noi. Cerchiamo persone col nostro stesso bisogno di capire che Italia siamo quando parliamo di lavoro. 

Sottoscrivi SenzaFiltro

Photo credits: agendadigitale.eu

CONDIVIDI

Leggi anche

Gianni Rodari chiama, il Pakistan risponde

Il Pakistan è come un rigore tirato da un campione: non c’è alcuna possibilità di intuirne la direzione, semplicemente ti spiazza. Alla partenza molti ti raccomandano di fare attenzione. Al check-in dell’aeroporto di Pisa, il personale di terra esclama, quasi per farci ricredere: “Ma dove andate, a Islamabad? Siete sicuri?”. Come se non ce lo […]