Profili dei giocatori del Draft NFL 2023: Virginia CB Anthony Johnson
Jun 15, 20232023Suzuki V
Mar 16, 202426 migliori gadget da viaggio nel 2023 per ogni tipo di viaggio
Jul 23, 2023Adwanted è il glossario britannico che sfata i termini tecnici per tutto ciò che riguarda i media
Apr 22, 2024Tu e l'intelligenza artificiale, parte 4: La fine dell'umanità?
Aug 02, 2023In che modo l’intelligenza artificiale cambierà il giornalismo?
All'inizio di luglio, l'Associated Press ha stretto un accordo con OpenAI, creatore di ChatGPT, per concedere in licenza "parte dell'archivio di testo di AP" e ottenere l'accesso alla "tecnologia e alla competenza sui prodotti di OpenAI". Pochi giorni dopo, OpenAI ha annunciato una sovvenzione di 5 milioni di dollari, accompagnata da 5 milioni di dollari in “crediti” per l’uso del software, all’American Journalism Project, un’organizzazione che supporta le redazioni senza scopo di lucro. Nel frattempo, secondo quanto riferito, Google avrebbe presentato alle principali testate giornalistiche, tra cui il New York Times, il Washington Post e il Wall Street Journal, un nuovo software “assistente personale” per giornalisti, nome in codice Genesis, che promette di “acquisire informazioni – dettagli di eventi attuali, ad esempio – e generare contenuti di notizie”, con un tono descritto da alcuni presenti come inquietante. Un certo numero di testate giornalistiche, tra cui G/O media, che possiede Gizmodo, Jezebel e The Onion, stanno sperimentando contenuti in stile blog generati da zero, e molti altri, con vari gradi di trasparenza, hanno iniziato a dilettarsi.
La settimana scorsa, Semafor ha riferito che il prossimo incontro significativo tra testate giornalistiche e società di intelligenza artificiale potrebbe svolgersi in tribunale: la IAC di Barry Diller, insieme a “una manciata di editori chiave”, tra cui Times, News Corp e Axel Springer, starebbero “formalizzando una coalizione che potrebbe condurre una causa e spingere per un’azione legislativa”. Non cercano piccoli finanziamenti o collaborazioni esplorative. A loro avviso, le società di intelligenza artificiale rubano sistematicamente contenuti per addestrare modelli software a copiarli. Stanno cercando un risarcimento che potrebbe “raggiungere i miliardi”.
Queste sono, è giusto dirlo, le azioni incoerenti di un settore confuso che affronta la perturbazione speculativa da una posizione di debolezza. Questo non è l'ideale se sei il tipo di persona che punta molto su un Quarto Potere funzionale, ma non è nemmeno l'unico: nelle sale conferenze di tutto il mondo, i colletti bianchi inciampano in conversazioni sconvolgenti su presentazioni incoerenti su l'imminente avvicinamento dell'intelligenza artificiale con l'incarico o l'intenzione di realizzarne alcuni - qualsiasi! - una specie di piano. È anche comprensibile. È più facile convincere la leadership di OpenAI e Google a parlare dell'apocalisse che avere un'idea chiara anche dei propri piani per fare soldi con modelli linguistici di grandi dimensioni, e ancor meno di come tali piani potrebbero influenzare la segnalazione e la distribuzione delle notizie. . Le particolari espressioni di panico del settore dei media sono il risultato di un senso globale di esposizione a queste nuove forme di automazione – che è probabilmente il modo migliore di pensare all’intelligenza artificiale – combinato con un senso di profonda confusione su quali siano le sfide e per chi. .
Le prime risposte sparse del settore all'intelligenza artificiale, tuttavia, sembrano contenere alcune ipotesi, e da tali ipotesi possiamo estrapolare alcuni possibili futuri: se non quelli probabili, almeno quelli di cui i responsabili del business delle notizie sono più entusiasti. o di cui hanno più paura. Le prime risposte incerte dei media all’intelligenza artificiale sono, a modo loro, previsioni. Ci sono, finora, alcune scuole di pensiero dominanti a riguardo.
Teoria 1: l’intelligenza artificiale sostituisce il giornalismo
Ad un estremo, ci sono organizzazioni giornalistiche online-first che sono pronte a iniziare a generare più contenuti ora nel modo più semplice possibile: chiedendo a strumenti basati su nuovi modelli linguistici di grandi dimensioni di comporre storie su x o y per la pubblicazione diretta o leggermente modificata. CNET, il sito di notizie tecnologiche, ha adottato presto questa strategia ma si è tirato indietro dopo che il suo contenuto poco letto si è rivelato pieno di errori gravi; imperterrita, la G/O sta provando una strategia simile con un ulteriore pizzico di antagonismo nei confronti dei suoi dipendenti sindacalizzati.
È forte la tentazione di rimanere bloccati sulla questione se gli strumenti di intelligenza artificiale siano (o saranno presto) in grado di produrre versioni plausibili di gran parte dei contenuti già pubblicati da queste pubblicazioni. Come strategia, tuttavia, l’approccio all-in-on-AI rende questa domanda irrilevante. Se un bot non riesce a produrre in modo convincente in massa i contenuti che le persone vogliono leggere, o almeno contenuti rispetto ai quali le visualizzazioni possono essere in qualche modo raccolte dagli editori per gli annunci pubblicitari, allora il piano fallisce. Se può, cioè se G/O riesce a sostituire gran parte dei suoi contenuti con post di blog di attualità generati dall'intelligenza artificiale e mantenere una sorta di pubblico redditizio, allora sembrerebbe che il piano continui a fallire, perché se G/O può, allora chiunque può e lo farà. Il costo di un post di blog scartato e scartato si avvicinerà allo zero e, come altre forme di contenuto che sono già state sostanzialmente automatizzate (riepiloghi dei guadagni trimestrali, bollettini meteorologici, risultati sportivi di base), cesserà di produrre molto valore da solo. .