Giornali, intelligenza artificiale e coda lunga
Di Nicola Zamperini
“Dalla newsletter Disobbedienze. Per iscriversi questo il link
C’è una cosa che mi manca molto e che non incontrerò mai più nella vita. Sono troppo avanti negli anni. Non la rimpiango ma ne soffro l’assenza. Non una persona, bensì un luogo di lavoro. L’atmosfera, soprattutto. Le pile di quotidiani, la confusione. Il senso di comunità e una frenesia che a volte diventa delirio. Sto parlando della redazione di un giornale o di un telegiornale. Oggi riesco ad ammettere che invidio gli amici e i colleghi che vivono le sensazioni che una redazione offre. Spesso i miei amici non sono d’accordo. Ciò che conta è che loro, a differenza mia, sono ancora lì. Purtroppo le redazioni diminuiscono. Il numero di giornali si assottiglia.
Resistono, sebbene la pubblicità che li nutre sia in calo.
Quando scrivo di questi temi, qui su Disobbedienze, la percentuale di persone che apre la newsletter o condivide un post su Telegram cala inesorabilmente. Il giornalismo, sembrerà assurdo, non interessa granché. Il giornalismo ripeto, che è cosa differente dai giornali. Certo poi molte persone strepitano per la qualità della democrazia e del dibattito politico, provando a invocare un mutamento di agenda. E lo fanno come? Condividendo un post preso chissà dove e fatto da chissà chi.
Il giornalismo non interessa granché nemmeno a chi si occupa di cultura digitale. Pure se il web, nella sua interezza e nelle sue molteplici declinazioni, costituisca una delle cause della fine di un mondo che aveva tanti difetti, e pure molti pregi. Un’ultima cosa, la fine dei giornali non significa la fine del giornalismo. Questo è indiscutibile e lo vedremo più avanti.
Vorrei cominciare mettendo a fuoco un paio di concetti, in forma di assiomi.
L’esistenza di quell’oggetto multimediale e aperto, che definiamo contenuto, che per le piattaforme è banalmente un linksuscettibile di misurazione, ha cancellato il valore delle notizie.
Le notizie – assimilate ai contenuti – si sono trasformate in commodity. Prodotti a basso costo, fungibili e simili a tanti altri oggetti composti di parole, immagini statiche o in movimento. Una cosa da cercare gratuitamente, da condividere gratuitamente.
Nonostante questo destino, quasi sempre, le ciclotimiche urla su qualche aspetto deteriore della nostra vita comune, dalla guerra alla violenza, nascono da da un contenuto, vero o falso che sia, oppure da una notizia. E da qualcuno che quella notizia l’ha raccolta, l’ha verificata e l’ha data. Tre elementi essenziali, che poggiano su specifici criteri di notiziabilità, che la distinguono dal contenuto.
L’esito di questo processo, cioè le condivisioni, i commenti e le reazioni, in quella mimesi realistica del conflitto che è la conversazione nello spazio digitale, dà per scontato il meccanismo che l’attiva, e che consente a noi di discutere per qualche ora o giorno di un tema. E cioè che una notizia deve soddisfare alcuni requisiti, laddove, a un contenuto basta un link per essere definito tale. Il fattore scatenante del nostro berciare – con l’obiettivo di posizionarci – sui social è spesso una cosa di cui dimentichiamo la definizione, peggio, tendiamo a confonderla.
Il ciclo di vita della notizia, infine, è diventato ancora più frenetico, e non dipende soltanto dalle prime pagine, dai titoli dei telegiornali, ma dalla quantità di contenuti – condivisi e cercati – su un determinato tema, in un determinato lasso di tempo.
Di fronte a questo scenario i media, invece di produrre notizie in esclusiva (dovrebbe essere il loro principale compito), scelgono di seguire i contenuti di tendenza, assecondando le richieste degli utenti. Inseguono i cosiddetti trending topic. Scrivono articoli, producono video o audio su questi temi, perché così facendo giovano di due tendenze basiche relative al comportamento degli utenti nello spazio digitale: la ricerca e la condivisione. Un vortice di conformismo: parlano di cose di cui tutti parlano e che tutti cercano, purché la gente arrivi sui loro siti.
quando si produce un fatto che diventa di tendenza, le persone condividono, commentano e vanno alla ricerca di contenuti relativi ad esso. I media allora si sbrigano e producono in fretta contenuti o notizie che abbiano quella che potremmo definire algorithmic compliance, e cioè l’adesione agli standard premiali degli algoritmi del motore di ricerca (SEO) e dei social, in modo da essere trovati subito o da essere condivisi più facilmente. Una lezione piuttosto semplice da mettere in pratica, e ben assimilata. BuzzFeed è nato sulla scorta di una adesione perfetta ai meccanismi che favorivano la condivisione nei social, una sorta di supina algorithmic compliance.
Chi fa marketing e comunicazione digitale per aziende – non editoriali – definisce questo processo socialjacking o newsjacking, il che significa inserirsi nella conversazione degli utenti producendo contenuti, di natura simil commerciale, sui temi di tendenza. Pure le aziende editoriali si sono messe a fare socialjacking o newsjacking, confondendo ulteriormente le acque.
Ora il comportamento dei media, nel corso del tempo, ha preso le sembianze di una strategia ben precisa.
Molte testate hanno demandato ai social e al motore di ricerca una parte significativa del traffico in arrivo sui loro siti. Hanno chiesto ai giornalisti di assecondare gli algoritmi, affidando alle piattaforme la loro stessa sopravvivenza e costruendo una casa di proprietà su una terra in affitto.
I social network prima hanno fatto pagare un sacco di soldi, e poi hanno cominciato a limitare l’uscita dalle piattaforme verso altri lidi. A quel punto è rimasto in piedi soltanto Google a portare traffico.
Secondo un’analisi dei dati della società di misurazione Similar Web, Google genera quasi il 40% del traffico degli editori statunitensi. Un’enormità. I numeri sono simili anche qui da noi.
Google stesso, tra le altre funzioni che svolge, va considerato anche un media, disponendo di un aggregatore di notizie come Google News. Se voglio conoscere i titoli del giorno vado lì e li leggo. Ci sono le sezioni, come nei giornali, una di queste è “per te”: «contenuti consigliati sulla base dei tuoi interessi». Poi posso cliccare, se voglio pago e quindi approfondisco. Se invece preferisco limitarmi ai titoli, lì dentro trovo tutto.
Peggio di Google News è Google Discover, che per molti editori vale oltre il 40% del traffico, fino al 50%. Strumento che «mostra alle persone contenuti correlati ai loro interessi», sulla base di criteri misteriosi. Mi ha spiegato il responsabile marketing di un importante quotidiano italiano, che a fronte di una notizia in esclusiva che loro avevano, Google Discover ha premiato spesso la concorrenza. Incomprensibile comprenderne ragioni e criteri.
Sul sito di Discover sta scritto che «i contenuti sono automaticamente idonei a essere visualizzati in Discover se sono indicizzati da Google e soddisfano le norme relative ai contenuti di Discover. Non occorrono tag speciali o dati strutturati… l’idoneità a comparire in Discover non garantisce la pubblicazione». Decidiamo noi, come pare a noi, quando vogliamo noi. Il solito Google. L’Oracolo di Delfi era più trasparente e comprensibile.
Per comprendere invece il modo in cui il motore di ricerca tratta notizie e giornalismo, occorre leggere con attenzione questa frase di Liz Reid, vicepresidente di Google, che spiega l’approccio dell’azienda a una faccenda piuttosto delicata (un tempo definivamo la stampa un contropotere) e che – come al solito – viene ridotta all’essenziale, cioè al core business della compagnia: «il fabbisogno informativo nel mondo non è un numero fisso. In realtà cresce man mano che le informazioni diventano più accessibili, più facili da comprendere e più potenti nella loro stessa comprensione».
Dentro questa risposta c’è la spiegazione degli insondabili criteri di Discover. Quando le notizie le tratta Google, nel senso che sono indicizzate e rispettano i loro standard (algorithmic compliance), allora le persone sentono di averne bisogno, se invece non si realizza questa adesione agli standard di Google, il fabbisogno informativo diminuisce e i contenuti diventano meno accessibili. La gente non arriva proprio sui siti dei giornali. Il sorgere stesso di un bisogno viene stroncato sul nascere.
Prima di Google le persone volevano notizie e i giornali gliele davano. Dopo Google le persone volevano notizie e il motore di ricerca restituiva contenuti. Adesso le persone non sanno quello che vogliono, per lo più contenuti direi, e il motore di ricerca – di volta in volta – decide se elencare contenuti o notizie, oppure niente (e fateci caso, non dipende mai da loro).
Alphabet è un’azienda molto grande, e fatta da gente arguta che non vuole più ritrovarsi nella scomoda posizione di chi finisce sotto processo mediatico. Com’è successo negli anni scorsi, non vuole che qualcuno l’accusi ancora di diffondere disinformazione, contenuti manipolatori, di lasciare ragazzini e adolescenti nelle mani dell’algoritmo di YouTube per ore e ore.
Hanno messo in piedi una strategia di pubbliche relazioni il cui primo passo è pagare, sponsorizzare, i giornali (per un pezzo hanno sponsorizzato anche i festival in cui si parla di giornali e giornalismo, a essere onesti). A partire da progetti che ricadono sotto l’altisonante nome di Google News Initiative, «la cui missione è collaborare con i giornalisti per combattere la disinformazione, rafforzare la diversità, l’equità e l’inclusione nelle notizie e supportare l’apprendimento e lo sviluppo attraverso la trasformazione digitale». Alla fine sono soldi, materia di cui gli editori hanno disperato bisogno.
Adesso però questo giocattolo rischia di rompersi. L’esplosione dell’intelligenza artificiale generativa muta ulteriormente la relazione tra le persone e i bisogni informativi.
Affrontiamo ora due temi: uno è attuale e uno ha a che fare con quanto accadrà domani. Non dopodomani, ma un domani incombente.
Il primo tema è quello dell’addestramento. La notizia del giorno è la causa che il New York Times ha fatto a OpenAI e Microsoftper violazione del diritto d’autore, in relazione al training di ChatGPT condotto, tra le altre centinaia di milioni di pagine di testo, anche su decine di migliaia di articoli del Times. Siamo di fronte a una richiesta di risarcimento danni che non è ancora stata quantificata. A questa causa potrebbero seguirne altre, da parte di altri giornali e altri editori. L’obiettivo è quello di un accordo economico. Nient’altro che questo. Tenete conto che il Times è il più importante quotidiano del mondo, per numero di abbonanti, oltre 10 milioni di persone, e autorevolezza.
Qualche giorno fa un colosso editoriale europeo, Axel Springer, ha siglato un accordo con OpenAI. Quest’ultima pagherà per utilizzare i contenuti delle pubblicazioni dell’editore tedesco, tra le quali ci sono Politico e Business Insider negli USA e Bild e Welt in Germania, contenuti che serviranno a popolare le risposte di ChatGPT e ad addestrare i prossimi modelli di linguaggio di grandi dimensioni(LLM) di OpenAI. Le società hanno rifiutato di rivelare i termini finanziari dell’intesa, ma si ipotizza che l’accordo genererà notevoli entrate per Axel Springer.
La causa del New York Times e l’accordo con Springer indicano una linea di tendenza che prende atto dei rapporti di forza. Le aziende editoriali, che se lo possono permettere (non tutte), vogliono monetizzare la relazione con le società proprietarie di grandi modelli generalisti, e allo stesso tempo cercheranno di mantenere una base utenti che paga per gli abbonamenti. Se non troveranno l’accordo, assisteremo a uno scontro all’ultimo sangue tra un mondo e il mondo nuovo.
Il secondo tema, che va oltre l’oggi, è il modo in cui si definiranno – per utilizzare la terminologia di Liz Reid – i fabbisogni informativi nell’epoca dell’AI generativa. Partiamo dall’assunto che umano e macchina avranno una relazione diretta, intima, segreta. Chiederemo all’AI generativa di riassumere le ultime notizie e darci gli approfondimenti del giorno. Non ci sarà nemmeno più bisogno di una mediazione algoritmica che espone un elenco di link, e quindi di fonti.
A rispondere penserà la rete neurale, e il discorso con l’utente costituirà il sostituto di quello che per qualche secolo abbiamo definito giornale.
Altra ipotesi è che gli utenti-cittadini soddisferanno i loro bisogni informativi su siti che offriranno (per la verità accade già abbondantemente) contenuti sintetici, e cioè prodotti da content farm di AI generativa. Anche lo stesso Google avrà problemi in questo senso: sarà difficile per il motore di ricerca trovare risultati scritti da umani e non da da LLM, e che siano soprattutto risultati di ricerca affidabili.
A differenza degli editori, però, il motore di ricerca ha altre strade per reagire a questo problema, in primo luogo perché lo stesso Google rappresenta un attore di rilievo nel settore dell’AI generativa.
Il Wall Street Journal riferisce che da maggio Google ha testato, su circa 10 milioni di utenti, un prodotto di intelligenza artificiale chiamato Search Generative Experience.
L’obiettivo è portare questo oggetto nel cuore del motore di ricerca, quindi a miliardi di utenti. Si tratta di uno strumento di ricerca assistito dall’AI e quindi di una versione – si suppone – più efficiente del Copilot di Microsoft, dentro Bing.
Ricordate la percentuale di traffico, il 40%, che gli editori hanno appaltato a Google? Bene, quei numeri potrebbero cambiare.
L’azienda fondata da Larry Page e Sergey Brin afferma che la forma definitiva di questo nuovo prodotto non c’è ancora, tuttavia, scrive il Journal, «gli editori hanno visto abbastanza per stimare che perderanno tra il 20% e il 40% del traffico generato dal motore di ricerca, se qualcosa di simile alle interazioni» sperimentate nel periodo di test verrà confermata.
Quel 40% di traffico che era un problema, perché dettato da criteri più o meno oscuri, ma almeno assicurava audience, adesso diminuirà e di tanto.
Chi porterà traffico ai giornali? Domanda che equivale a chiedersi, chi leggerà i giornali?
Il meccanismo alla base di Search Generative Experience conta sulla relazione che ho definito intima. Google ha sperimentato un’interfaccia di chat (simile a ChatGPT) che risponde a domande articolate e in linguaggio naturale, e «fornisce risposte definite “istantanee” o riepiloghi», molto simili agli snippet (i piccoli riquadri già oggi utilizzati per risposte a domande semplici e ricorrenti).
Il motore di ricerca non ha inserito i link alle testate come fonti, li ha messi in un riquadro a destra. In una seconda fase, riporta il Journal, ha deciso di inserirli nelle risposte, «dopo i feedback dei primi test. Altre versioni più recenti prevedono un pulsante che porta l’utente ai link». In definitiva Google «non sta considerando i link come materiale di partenza ma piuttosto come una conferma dei suoi riassunti», delle risposte.
Non è difficile scommettere fin d’ora che nessuno cliccherà su quei link e nessuno andrà a leggersi i pezzi dei giornali. Eccola la ragione del crollo del traffico. Il layout di qualsiasi piattaforma non ha nulla di neutro. Mai. L’assenza dei link o la spinta gentilea non cliccarli equivale a cancellare dall’equazione dei bisogni informativi chi le notizie le produce, cioè le testate.
Peraltro c’è un problema tecnico. Google avrebbe spiegato agli editori, durante una serie di incontri in cui ha tentato di illustrare Search Generative Experience, che il motore di ricerca non può tracciare le fonti dietro le risposte dell’intelligenza artificiale. Allo stesso modo, oggi, OpenAI non è in grado di estrarre, dal set di dati di training di GPT, i contenuti presi dal New York Times, e non è nemmeno in grado di ripulire quel set e magari cancellarli su richiesta di un giudice, perché gli articoli non vengono indicizzati come accade per un motore di ricerca. Tutto è subito tokenizzato (trasformato in numeri) e poi assorbito dalla macchina. Un gigantesco blob.
Se questo è il panorama di domani, i problemi di oggi non sono terminati. Scrive Casey Newton che, a partire da questa prospettiva, «diminuirà la fiducia delle persone nella ricerca. E gli utenti più sofisticati», secondo me i più ricchi, «cercheranno rifugio in marchi mediatici affidabili e nei contenuti di singoli creatori». Dopo essere calata la fiducia nei media mainstream, calerà la fiducia anche nel mediatore, nel motore di ricerca. E allora faranno la differenza le possibilità di spesa.
Se la falsa disintermediazione ha ridotto i contenuti alla forma della commodity, pare evidente che spendere per le notizie verrà considerato un lusso. E i giornali merce pregiata (posto che non lo siano già).
Tutto ciò produrrà effetti sul mercato della pubblicità. Molte content farm digitali venderanno pubblicità (programmatic advertising, piazzata dalle macchine senza mediazione umana) sulla base di audience digitali raggiunte con costi marginali di produzione dei contenuti molto bassi, anzi prossimi allo zero. L’industria dei media vedrà un altro scossone.
Il Wall Street Journal, nell’inchiesta di Keach Hagey, Miles Kruppa, Alexandra Bruell, riporta il parere di Mathias Döpfner, presidente e amministratore delegato di Axel Springer, il quale afferma che l’intelligenza artificiale ha «il potenziale per distruggere il giornalismo e i media per come li conosciamo».
Fin qui i problemi di natura tecnologica, per così dire. Temo però esistano anche questioni di natura culturale che hanno aggravato le condizioni del mercato dei media.
Una l’abbiamo descritta in apertura, l’assimilazione delle notizie all’insieme più vasto del contenuto. E la conseguente perdita di valore per il bene notizia. Perdita di valore economico e non solo.
Il giornale, che per lungo tempo è stato un bene posizionale, sta perdendo questa caratteristica. Oggi ad assolve la funzione di supporto identitario basta la mera condivisione di un contenuto, prodotto da chiunque e ovunque, umano o artificiale che sia. Se voglio fare capire, nella cerchia dei miei follower, di essere filo qualcuno tra due belligeranti, durante un conflitto, basta che io condivida ogni giorno un contenuto che parli della guerra in un certo modo, per raggiungere il risultato.
Non ho bisogno di comprare nessun quotidiano, né di far uscire il giornale arrotolato dalla tasca dei jeans. Tantomeno di argomentare o discutere.
La verità è che se il perimetro del giornalismo, di chi paga per il valore delle notizie si restringe giorno dopo giorno, si allarga quello di chi usa contenuti a presidio della propria identità davanti a un pubblico grande o piccolo a piacere, in un contesto polarizzato.
Gli editori e le redazioni hanno imparato le regole di base della polarizzazione, di questa conseguenza inattesa dei social network, derivante dalla forsennata personalizzazionedell’esperienza di navigazione nelle piattaforme (v. Il Filtro – Eli Pariser).
L’hanno imparata con in testa la formula di alcuni biglietti con i quali si spedisce certa pubblicità: sperando di far cosa gradita, ecco a voi notizie ed editoriali sui quali siamo tutti d’accordo. Contenuti che vi faranno arrabbiare o commuovere, coi quali vi identificherete, che vi posizioneranno e vi differenzieranno dagli altri.
Un atteggiamento inutile ai fini della sopravvivenza delle imprese editoriali e particolarmente dannoso per lo stato di salute del dibattito pubblico.
Come scrive James Bennet su The Economist, in un meraviglioso articolo dal titolo When the New York Times lost its way, «mentre si disintegravano, i mezzi di informazione locali persero una fonte di reporter esperti e molti americani persero un giornalismo la cui verità potevano verificare con i propri occhi. Man mano che il paese diventava più polarizzato, i media nazionali seguivano il denaro servendo al pubblico partigiano le versioni della realtà che preferivano. Questa relazione si è rivelata auto-rinforzante. Man mano che gli americani diventavano più liberi di scegliere tra versioni alternative della realtà, la loro polarizzazione si intensificava».
L’unica cosa che le testate, più o meno di successo, sono state in grado di fare in questi anni è sostenere insomma una verità al posto di un’altra, un pubblico rispetto a un altro. Hanno rafforzato convinzioni confidando che questo regalasse loro un’identità forte.
La verità è che polarizzare esaurisce la soddisfazione di un utente, il quale sente di aver fatto la propria parte dopo aver condiviso un contenuto. Comportamento significativo per un social network ma non per un giornale.
Il New York Times rappresenta oggi la versione fatta molto bene di un grande quotidiano globale che sta all’interno di una dinamica di polarizzazione (leggete il pezzo di Bennet se volete trovare un ragionamento attorno a questa tesi).
Dopotutto è anche pieno di giornalisti che si sono trasformati in tifosi, dentro Twitter, convinti che avere un numero di follower multiplo dei lettori del quotidiano per cui scrivono, costituisca una virtù (andrebbe spiegato loro che la portata organica, e cioè il numero chi vede i contenuti di un profilo si aggira sempre intorno al 5% della propria fan base, a meno che non comincino a pagare anch’essi. Dopodiché si ritorna all’adagio di chi costruisce case di proprietà su terreni in affitto…).
Chiunque abbia mai lavorato con lo strumento di business di Meta(il vecchio Business manager), sa quanto sia facile identificare e segmentare un pubblico. E quanto sia semplice raggiungerlo per vendergli qualcosa. La pubblicità online funziona grazie a strumenti di questo genere, capaci di identificare pubblici di riferimento sulla base di molteplici categorie. La polarizzazione rappresenta una frattura tra un pubblico e tutti gli altri. Potrebbe invece essere utile evitare la contrapposizione e cercare di parlare a più pubblici, più insiemi che siano o meno tangenti e che abbiano punti di contatto.
Pare assurdo che le testate, salvo minuscole e rare eccezioni, non abbiano messo a frutto la versione nobile della polarizzazione e cioè non abbiano fatto affidamento sulla cd. legge della coda lunga. Concetto importante per comprendere le dinamiche relazionali e applicabile a qualsiasi settore nell’ecosistema digitale. Tutto nasce da un articolo del 2004 di Chris Andersonsu Wired, The Long Tail, poi divenuto un libro, che spiega ancora oggi il successo di colossi come Netflix, Amazon, Spotifye di tutti i social network e del motore di ricerca. Queste piattaforme offrono una varietà abnorme di contenuti, sia mainstream che di nicchia, sia i bestseller che i grandi fiaschi, in modo che ciascun pubblico possa trovare ciò che gli piace, e che ogni contenuto possa arrivare al proprio pubblico. Se alcuni definiscono Internet come una massa di nicchie, le piattaforme di successo hanno messo a profitto questa definizione.
Oggi la sensazione è che tante testate abbiano perso di vista la coda lunga e i suoi effetti. E invece sarebbe opportuno ripartire da un’idea che fa storcere la bocca a molti, cioè dall’idea del giornale come prodotto di qualità che parla a una comunità ben definita, dagli interessi chiari. Conoscere i propri lettori-ascoltatori-telespettatori appare doveroso oggi come lo era ieri, soltanto che adesso risulta molto più semplice raggiungerli. I media poi hanno il dovere di capire se e quanto questo pubblico sia disposto a pagare – pagare per un lungo lasso di tempo – per le notizie e non per i contenuti.
La sfida di questi anni si gioca attorno questo obiettivo.
La comunità finanziaria, i tifosi di una squadra di calcio, gli over 70, coloro che sono interessati alla tecnologia, le nicchie esistono, tuttavia l’elemento differenziale è trovare nicchie che paghino per un oggetto chiamato giornale, e che attribuiscano quindi un valore all’oggetto-notizia, tanto da volerlo acquistare.
Il formato, l’inserimento della tecnologia nel processo produttivo, il modello di business sono tutti aspetti che vengono molto dopo. Negli ultimi anni siamo passati dal riflettere su come fare giornalismo, spesso dimenticando cosa sia il prodotto giornale, a come introdurre o contrastare la tecnologia nei giornali, perdendo di vista il valore del giornale per un pubblico ben preciso (gli ultimi successi editoriali italiani, da Repubblica nei primi anni ’80 al Fatto quotidiano rappresentano casi di successo, in senso kotleriano, di prodotti dall’identità marcata che trovano un proprio pubblico, posizionandosi alla perfezione).
Il magazine The Information, diretto da Jessica Lessin, il cui abbonamento costa 400 dollari, ha spremuto il concetto della coda lunga andandosi a cercare un pubblico – una nicchia – disponibile a pagare quella somma, perché le sue notizie (non i contenuti!) generano un valore. Valore duplice, aggiungo, sia per la testata, che prospera su questo da ben 10 anni, come pure per gli abbonati.
The Information racconta la tecnologia e la Silicon Valley, dagli umani ai prodotti, dalla cultura al potere, con 65 dipendenti tra San Francisco, New York e Hong Kong.
Il magazine ha dato filo da torcere ai grandi quotidiani americani ed è oggi un modello da seguire. Ha un sito bruttino, un layout antico, quasi da blog, parla di AI e non utilizza l’AI nel processo di produzione, eppure chi desidera sapere cosa accada, perché e come accada in questo settore deve abbonarsi. Mentre BuzzFeed è in crisi, Vice, dopo una procedura fallimentare, è stata venduta, la creatura di Jessica Lessin va avanti e oggi conta su una base abbonati di 475.000 persone. Certo l’inglese aiuta, come pure aiuta il fatto che stiamo nella Silicon Valley e qui la gente è molto ricca.
Ma serve più che altro capire il meccanismo che ha portato al successo questa testata. Un meccanismo antico. La comunità di chi si occupa di tecnologia ha trovato in The Information un quotidiano dall’identità ben definita – parla solo di tecnologia e non di tutto -, e una soluzione al problema delle notizie affidabili rispetto alle quali fare scelte di carriera o di investimento. Soluzione di qualità, perché il magazine mette in pagina ogni giorno più notizie esclusive (non interviste) sul mondo della Silicon Valley.
Tra l’altro The Information offre una ulteriore gamma di servizi che si aggiungono alla versione base, a partire dalla pubblicazione degli organigrammi delle più importanti compagnie tecnologiche, il who’s who della Silicon Valley (ancora una volta identità, soluzioni, qualità, posizionamento, servizi aggiuntivi sono tutti paradigmi del marketing applicati al giornalismo, e davvero non c’è niente di male nel farlo. Il problema è quando c’è solo il marketing e nient’altro). In un’intervista, Lessin spiega che nel corso degli ultimi 10 anni, ha visto molte testate «costruire team Snapchat, e poi team TikTok e team video. Non abbiamo costruito niente di tutto ciò. Abbiamo solo assunto giornalisti».
Non bastano i servizi a spiegare un modello di successo, servono le notizie e le notizie in esclusiva. Chi – nei giorni della cacciata di Sam Altman da OpenAI – si trovava nelle condizioni di dover decidere come gestire miliardi di dollari di un fondo di venture capital, o capire se licenziarsi dall’azienda, non poteva fare scelte sulla base dei contenuti di un profilo TikTok o di un quotidiano che non aveva notizie fresche, doveva affidarsi a The Information, che – riporta Vanity Fair – ha pubblicato ben 17 esclusive sulla vicenda in soli 5 giorni (diciassette in cinque giorni).
Reed Hastings, co-fondatore di Netflix e abbonato di The Information, commenta con Vanity Fair che – da lettore – ciò che gli interessa è la qualità, la profondità dei pezzi: «gli articoli sono scritti con accuratezza, l’esatto contrario del clickbait. E l’abbonamento è la chiave di questo modello, perché poi il giornale non genera ricavi sulla base dei click».
Non c’è solo il magazine di Jessica Lessin come esempio positivo, date un’occhiata a The Ankler, che viene pubblicato su questa stessa piattaforma dove leggete Disobbedienze, Substack(a riprova che la tecnologia non costituisce un problema), e ancora a Pack e alla sua newsletter What I’m Hearing, oppure ad Axios e a Politico, che hanno una versione a pagamento.
Ho provato a mettere in fila un ragionamento sulle grandi opportunità del giornalismo nell’ecosistema digitale. Sono partito dagli elementi critici ma chiudendo su modelli positivi. Ho scelto di non discutere di come si possano fare meglio i giornali, mestiere di per sé complicato. Mi premeva piuttosto evidenziare alcune possibilità che la tecnologia offre per intercettare i bisogni informativi, che non sono quelli cui parla la vicepresidente di Google e che non hanno nulla a che vedere con l’AI, almeno per una volta.
Tutto ciò non ha eliminato la nostalgia per il mio vecchio mestiere che rimane intatta, ma questo ha a che fare coi sentimenti e con i ricordi, materia molto fragile, distante dai temi che affronto qui dentro.