Al Wikipedia Day tenutosi a Welle7 a Berna il 27 aprile 2024, il wikipediano Kevin Golde (nome utente: Wikiolo) è stato tra i nostri relatori sul tema “Wikipedia e intelligenza artificiale (IA): la corsa per la libera conoscenza“. Ha risposto alle domande della nostra moderatrice Lisa Stähli: ecco le risposte.

Ciao Kevin, qual è lo stato attuale della collaborazione con l’intelligenza artificiale su Wikipedia e altre piattaforme di conoscenza, e come è destinata ad evolversi in futuro?

Finora l’intelligenza artificiale in sé non è stata generalmente utilizzata su Wikipedia. Questo è dovuto principalmente al fatto che applicazioni come ChatGPT agiscono come chatbots (programmi che consentono agli esseri umani di interagire con terminali digitali come se comunicassero con una persona reale) e non forniscono, ad esempio, nessuna conferma. Soprattutto nel caso delle IA che generano immagini, c’è anche la questione se il contenuto sia concesso in libera licenza in modo che Wikipedia possa utilizzarlo.

La situazione è diversa con Wikipedia come fonte per l’intelligenza artificiale. Le licenze gratuite di Wikipedia lo rendono un’eccellente fonte di dati. Esistono anche iniziative cooperative ufficiali, come il progetto WikiGPT con OpenAI, dove ChatGPT accede direttamente ai contenuti di Wikipedia.

Ma già oggi semplici strumenti di IA potrebbero rivelarsi utili su Wikipedia, ad esempio per livellare le parole. Nel giro di breve tempo, posso immaginare uno strumento di intelligenza artificiale in grado di segnalare possibili errori a un utente o di trovare fonti (migliori). Esiste già un progetto pilota con il software System Side. L’IA potrebbe anche rendere Wikipedia più interattiva, ad esempio ponendo al lettore domande sull’articolo appena letto, riformulando un articolo di matematica in un linguaggio semplice, riassumendo articoli extra large o creando in un batter d’occhio una serie di diapositive per una presentazione.

Inoltre, i contenuti mancanti in una lingua potrebbero essere rapidamente integrati da una traduzione IA. Potrebbe anche essere possibile creare una Wikipedia centrale da cui le informazioni possano poi essere tradotte nella rispettiva lingua madre utilizzando uno strumento informatico. Potrebbe essere l’inglese, ma probabilmente un’altra lingua è più adatta. È importante che questa Wikipedia centrale sia una lingua unica in modo che nessun contenuto venga perso, semplificato o distorto dalle traduzioni. Non so se esista già un linguaggio ottimale per questo, altrimenti si può ancora sviluppare un linguaggio artificiale pensato per questo scopo.

A lungo termine, posso immaginare uno strumento di intelligenza artificiale esso stesso che scrive, completa e aggiorna articoli basati sulle fonti. Anche così, è essenziale che ci siano ancora persone in background per verificare le informazioni.

Come si può impedire che i contenuti generati dall’intelligenza artificiale diffondano disinformazione?

Le applicazioni di machine learning basate esclusivamente sui dati non funzionano mai come previsto: in fin dei conti, sono solo metodi statistici. Inoltre, la qualità dei risultati dipende dalla forza, completezza e imparzialità dei dati di addestramento. Gli errori sono umani e solo per questo motivo uno strumento di intelligenza artificiale addestrato utilizzando dati umani commetterà sempre errori. Tuttavia, per ridurre al minimo la disinformazione, almeno per le fonti che possono essere citate, dovrebbe sempre esserci di base l’essere umano per effettuare un fact check e garantire una presentazione imparziale ed equilibrata dei fatti. Se tale verifica non viene effettuata, vedo il rischio che gli strumenti di intelligenza artificiale finiscano per citare se stessi così spesso che il risultato sarà senza senso. Un altro pericolo è che le informazioni vengano alterate a favore di determinati gruppi di persone. Per evitare ciò, dovremmo riflettere molto attentamente se questa tecnologia debba essere di proprietà di un gruppo di persone o nelle mani della società come infrastruttura orientata al bene comune, un po’ sul modello della radiodiffusione pubblica, come uno strumento veramente democratico.

Quali strategie esistono per promuovere un linguaggio culturalmente sensibile e inclusivo nei contenuti generati dall’IA?

Spetta all’operatore dell’IA garantire che questioni come il linguaggio culturalmente sensibile e inclusivo non vengano trascurate. Leggi o linee guida possono essere utili. A seconda del modello, le autorità o, se l’intelligenza artificiale riesce a imporsi nel progetto di un istituto di diritto pubblico, le istituzioni dovrebbero garantire il rispetto di questo quadro. Con ChatGPT possiamo già vedere che questo strumento blocca determinate richieste. Ad esempio, non apparirà un elenco stupido se chiedi a ChatGPT i politici più stupidi. D’altra parte, se chiedi chi sono i politici più intelligenti, ChatGPT proporrà effettivamente un elenco. Quindi c’è un modo per limitare modelli e richieste tipiche.

Quali sfide etiche derivano dai contenuti generati dall’intelligenza artificiale e come possono essere affrontate in modo specifico?

A mio parere, la prima domanda che sorge è chi dovrebbe possedere uno strumento così potente e quali regole vengono applicate. Conosciamo tutti il detto “la conoscenza è potere”. Che questa massima sia valida anche nel mondo digitale è evidente, nonostante Wikipedia possa diffondere liberamente la conoscenza. Dopotutto, le regole del gioco d’oggi – ovvero che le persone con abbastanza soldi possono comprare quasi tutto e fare quasi tutto ciò che vogliono con esso – hanno dimostrato quanto potere gli individui possono esercitare con il loro denaro, come la dimostrazione di Elon Musk di potere comprando Twitter, dopo essere rimasto turbato dal fatto che una persona democraticamente votata che aveva indetto un colpo di stato si fosse vista sospendere l’account Twitter.

Se consideriamo che un’IA commerciale riesca a garantire che Wikipedia subisca un destino simile all’enciclopedia Brockhaus, perché in futuro la maggior parte delle persone utilizzerà l’IA invece di Wikipedia, non oso immaginare quali manipolazioni saranno allora possibili. A seconda di chi è al timone di questa impresa, posso supporre che il mondo democratico si troverebbe ad affrontare sfide politiche interne ancora più grandi di quelle di oggi.

Le bolle di filtraggio potrebbero diventare un problema ancora più grande per la nostra società di quanto lo siano già oggi. Ciò che già si vede sui social media potrebbe aggravarsi se le aziende programmassero la propria IA per adattare le risposte ai profili degli utenti e poi, ad esempio, rispondessero alle domande sul cambiamento climatico in modo diverso a un fanatico dell’eccesso di velocità sulle autostrade tedesche rispetto a un manifestante dei Fridays for Future; in linea con il motto “il cliente è il re”.

È possibile prevenire tali bolle mediante leggi che impediscano risposte personalizzate. Tuttavia, la domanda è sempre in che modo le autorità possano far rispettare queste leggi. Per sicurezza è quindi importante la massima trasparenza possibile, che a mio avviso si ottiene meglio con una piattaforma organizzata secondo il diritto pubblico. Con una struttura organizzativa ben congegnata, questo dovrebbe essere generalmente anche il modo migliore per prevenire tentativi di manipolazione.

Come può Wikipedia sfruttare i progressi dell’intelligenza artificiale senza compromettere la sua integrità come fonte attendibile di conoscenza?

Vedo un grosso problema nel futuro di Wikipedia nel fatto che esso non soddisfa completamente i criteri di fonte affidabile. Ecco perché noi della comunità diciamo sempre che Wikipedia non è una fonte in sé. Ad esempio, anche oggi vengono spesso avanzate affermazioni infondate e spesso errate, e abbiamo un gran numero di articoli datati che sono ancora in gran parte privi di prove. Secondo la mia esperienza, questi articoli in particolare contengono errori di contenuto, ma anche le dichiarazioni con riferimenti individuali non dovrebbero essere fidate ciecamente, poiché su Wikipedia non esiste un processo di revisione tra pari. Inoltre, Wikipedia consente di scrivere anonimamente, quindi le persone che non hanno intenzione di contribuire a un’enciclopedia neutrale possono facilmente manipolarla a proprio piacimento, soprattutto quando si tratta di semplici argomenti.

Ed è proprio qui che penso che l’IA sia promettente. In futuro potrebbe essere in grado di criticizzare eventuali errori, esagerazioni o abbellimenti negli articoli e di presentarli, ad esempio, nella pagina di discussione. O addirittura suggerire prove che possano essere utilizzate per corroborare determinate affermazioni infondate. Ma come ho detto, per essere una fonte veramente affidabile, vedo l’essere umano controllare l’IA in ultima istanza.

D’altro canto devo anche dire che se Wikipedia resta così com’è, sarà solo questione di tempo prima che venga superata in termini di qualità da uno strumento di intelligenza artificiale. Sono sicuro che Wikipedia diventerà storia, poiché anche i suoi ultimi lettori, per i quali l’IA era troppo inaffidabile, si allontaneranno dall’enciclopedia online.

Come possono i progetti wiki continuare a esistere a lungo termine se non c’è quasi più nessuno che possa accedere direttamente alle pagine, partecipare o fare donazioni?

Al momento non ne vedo il problema. In caso di dubbio, il banner delle donazioni resterà esposto per una o due settimane in più rispetto all’anno precedente e alla fine la campagna di donazioni raggiungerà lo stesso numero di persone. Se questo diventasse effettivamente un problema a medio termine, le aziende sulle piattaforme che beneficiano dei contenuti di Wikimedia probabilmente farebbero grandi donazioni per far andare avanti Wikipedia. La domanda qui, ovviamente, è se cercheranno poi di influenzare anche Wikimedia per ristrutturarla secondo le proprie idee.

Per evitare ciò, il modello sopra menzionato di Wikimedia come istituzione di diritto pubblico aiuterebbe a raggiungere l’obiettivo di sostenere Wikimedia a lungo termine. A seconda del modello, anche le università, ad esempio, potrebbero partecipare al miglioramento e all’aggiornamento di Wikipedia con il compito di diffondere le proprie conoscenze. Si creerebbero anche nuove opportunità finanziarie, ad esempio in futuro  Wikimedia potrebbe sviluppare o acquisire metodi basati sui dati e propri LLM (modelli linguistici di grandi dimensioni). Per il momento ciò è difficilmente fattibile per questioni finanziare.

Come può Wikimedia consentire alla propria comunità di navigare e adattarsi in un panorama digitale in rapida evoluzione?

Wikimedia deve stare al passo con i tempi e adattarsi. All’epoca Wikipedia emerse da Nupedia, che perseguiva ancora un approccio commerciale. La cosa innovativa di Wikipedia era che, a differenza di Nupedia, tutti potevano contribuire all’enciclopedia online, in modo semplice e democratico, senza nemmeno bisogno di un account utente. Naturalmente questo è stato ottimo per gettare le basi dell’enciclopedia, ma dubito fortemente che questa sia la formula giusta per l’eternità. Come si sa, la fiducia sociale in Wikipedia è aumentata enormemente sin dai suoi inizi. Non è venuto dal nulla, ma è stato costruito su regole e criteri che un articolo di Wikipedia deve soddisfare. Con un’enciclopedia che gradualmente si completa, è quindi chiaro che sta diventando sempre più difficile iniziare a fare volontariato, tanto che, nonostante i nostri sforzi, oggi non siamo praticamente in grado di attirare nuovi arrivati.

A causa del numero molto basso di nuovi autori e del rispettivo numero in costante diminuzione, ci sono sempre più articoli che devono essere mantenuti, cosa che viene fatta principalmente dal wikipediano classico, che di solito è bianco, maschio e un po’ più anziano di me. Di conseguenza, Wikipedia spesso non è in grado di raggiungere i propri obiettivi quali la correttezza impeccabile, l’attualità coerente e la neutralità degli articoli. Wikimedia può ancora mantenersi perché non esiste un’alternativa seria al prodotto principale, Wikipedia.

Per come la vedo io, ci sono segnali che questo momento confortevole sta lentamente cambiando. Penso che ora che vediamo cosa è possibile fare con l’IA, dobbiamo pensare a come Wikimedia dovrebbe ulteriormente svilupparsi. Secondo me, dovremmo iniziare a ripensare tutto, per analizzare se Wikimedia è ancora sostenibile o se dovrebbe prendere il sopravvento un modello diverso: quindi, Wikipedia e i progetti gemelli dovrebbero ancora essere un qualcosa di puramente volontario, o dovremmo integrare anche nel nostro progetto College, Università e altre istituzioni orientate al bene comune? Oppure un’enciclopedia finanziata dalle donazioni è ancora adeguata come fonte di conoscenza mondiale, o non è addirittura un compito pubblico in quanto infrastruttura orientata al bene comune, quale è sicuramente Wikipedia oggi?

Dovremmo anche chiederci come possiamo trasformare Wikipedia in una fonte affidabile. Dovremmo, ad esempio, chiederci se dovremmo continuare a lasciare vecchi articoli completamente privi di documenti, o se non dovremmo piuttosto riformulare questi articoli in modo che possano essere considerati una fonte affidabile.

Grazie Kevin!

 

Per saperne di più

Foto: Amrei-MarieWikiolo 03, Image editing: WMCH, CC BY-SA 4.0