Grokipedia e Musk prova a riscrivere la conoscenza online
Tra utopia dell’IA e rischi per la verità condivisa
Elon Musk lancia Grokipedia. È un titolo che suona come un annuncio epocale — e infatti lo è, almeno per il modo in cui mette in mostra le tensioni che attraversano il mondo digitale: chi produce sapere, chi lo modera, chi lo rende accessibile e, soprattutto, chi decide che cosa sia “vero”. Grokipedia si presenta come la nuova enciclopedia online del miliardario, costruita dall’intelligenza artificiale Grok (sviluppata dalla sua società xAI), con l’obiettivo dichiarato di offrire «la verità, tutta la verità e nient’altro che la verità». La piattaforma è già operativa, conta centinaia di migliaia di voci alla partenza e ha fatto saltare nel giro di poche ore molte certezze: crash di server, accuse di plagio, polemiche politiche e un coro di scienziati ed espositori di buone pratiche informatiche che invitano alla cautela.
L’annuncio, la piattaforma, il logo
L’annuncio è arrivato sulla scia di mesi di comunicazione serrata. Musk, che da tempo definisce Wikipedia come un luogo “inquinato da propaganda”, ha convocato l’alternativa: Grokipedia, sviluppata dal team di xAI e alimentata dal modello conversazionale Grok, si propone di generare articoli tramite IA e di “verificarli” con la stessa IA. Alla comparsa del sito, l’impatto è stato immediato: migliaia di accessi, poi un temporaneo malfunzionamento che ha portato il sito offline per alcune ore; una ripartenza convulsa con una home page essenziale e una barra di ricerca. All’apertura la base dati vantava quasi 900.000 voci, molte delle quali — secondo osservatori esperti — appaiono basate o adattate da contenuti preesistenti, compresi articoli tratti da Wikipedia.
La formula scelta è netta: non una comunità di volontari che redige e corregge in modo trasparente, ma un’intelligenza artificiale che scrive, sintetizza e, con gli strumenti messi a disposizione da xAI, “fact-checks” i propri testi. Gli utenti, a quanto risulta oggi, non possono modificare liberamente i contenuti: possono segnalarne errori o imprecisioni, ma l’editing in senso stretto è centralizzato. È una differenza metodologica e culturale enorme rispetto al modello collaborativo che ha governato Wikipedia per oltre due decenni.

La promessa: verità contro “propaganda”
Nella narrazione di lancio, Grokipedia viene proposta come antidoto a una presunta inclinazione ideologica delle enciclopedie tradizionali: secondo i promotori, i processi di editing umano e le reti di influenza culturale avrebbero finito per produrre versioni “parziali” della realtà. Grokipedia, dicono i suoi creatori, intende sfruttare la capacità delle reti neurali di aggregare e sintetizzare enormi quantità di dati per restituire un quadro più equilibrato, rapido e aggiornato.
È una promessa che fa leva su due elementi: la supremazia della scala computazionale (l’IA può leggere e sintetizzare milioni di pagine in tempi brevissimi) e la presunta neutralità della macchina. Ma proprio qui emergono i problemi più imponenti: i modelli di intelligenza artificiale apprendono da dati umani, e i dati umani sono intrisi di bias. La neutralità algoritmica è un mito lungamente discusso in ambito accademico: senza regole editoriali chiare e senza trasparenza sulle fonti e sui pesi attribuiti alle informazioni, la macchina rischia di riprodurre — e amplificare — i pregiudizi dei dati che la nutrono.
Copia, crash e contenuti controversi
Nei giorni immediatamente successivi al lancio sono emersi tre problemi concreti che hanno alimentato il dibattito pubblico. Primo: diverse analisi hanno segnalato che molte voci di Grokipedia appaiono sospettosamente simili a quelle già presenti su Wikipedia, tanto da sollevare domande sulle modalità di acquisizione e sul rispetto delle licenze dei contenuti. In alcuni casi la piattaforma segnala esplicitamente che alcune voci sono “adattate” da Wikipedia sotto licenza Creative Commons; in altri casi, la natura delle fonti non è chiarissima.
Il sito ha subito un crash poco dopo l’esordio. Il picco di traffico ha messo in evidenza la fragilità infrastrutturale del progetto nella sua fase iniziale — un problema pratico ma anche simbolico: la credibilità di un progetto conoscitivo si costruisce anche sulla sua capacità di rimanere stabile e disponibile quando le persone vi si affidano.
Contenuti controversi. Alcune voci hanno fatto scattare l’allarme perché diffuse tesi che la comunità scientifica considera non comprovate o addirittura false. Critiche concrete hanno riguardato la gestione di temi sensibili — dall’epidemiologia alle questioni di genere — in cui la sintesi automatica ha generato riferimenti discutibili o narrative non bilanciate. Immediata è arrivata la reazione di chi difende il modello collaborativo di Wikipedia: trasparenza delle fonti, revisioni pubbliche, discussioni tra volontari sono elementi che, dicono i critici, non possono essere semplicisticamente sostituiti da un algoritmo “che sa tutto”.
La mossa di Musk non nasce nel vuoto. È figlia di un orizzonte più ampio dove tecnologia, politica e reputazione si intrecciano. Negli ultimi anni l’imprenditore ha investito massicciamente su sistemi d’intelligenza artificiale (xAI e il suo Grok), sulle piattaforme di comunicazione (X) e si è confrontato in modo diretto con istituzioni e media che ritiene ostili o parziali. Grokipedia arricchisce questo portafoglio: è uno strumento con valore simbolico e politico — un’alternativa alla “narrazione” dominante — ma anche un business potenziale, una base dati proprietaria su cui costruire servizi.
Il momento è propizio: la diffusione capillare dei grandi modelli linguistici ha indotto un’ondata di sperimentazioni in quasi tutti i campi della cultura digitale. Le enciclopedie sono un ambito naturale per l’applicazione dell’IA. Ma l’esperimento Musk-Grokipedia sfida, al tempo stesso, le regole del pluralismo e della verifica, aprendo una partita sul piano della fiducia pubblica: chi stabilisce oggi cosa è attendibile?

Wikipedia, le alternative e la politica della conoscenza
Per capire Grokipedia bisogna leggere la storia di Wikipedia e delle sue alternative. Wikipedia è nata nel 2001 come progetto collaborativo e ha costruito la propria autorevolezza con le regole della verifica, della citazione e della responsabilità pubblica. Gli stessi limiti della piattaforma — errori, vandalismi, guerre di editazione — sono gestiti grazie alla comunità di volontari che difende le politiche editoriali.
Negli ultimi anni, però, si è assistito a una proliferazione di progetti che cercano di “raccogliere” la conoscenza con logiche diverse: enciclopedie commerciali, database specialistici, e ora enciclopedie generate dall’IA. Ogni soluzione porta vantaggi pratici: velocità, uniformità stilistica, aggiornamento in tempo reale. Ogni soluzione porta rischi: omissione, parzialità, dipendenza da chi controlla l’algoritmo.
La tensione tra approccio aperto e controllo centralizzato si intreccia con posizionamenti politici: accuse di “woke-ness” o di filtri ideologici hanno reso la battaglia sulla pura informazione un terreno di scontro politico. Grokipedia sbarca così in un campo già polarizzato: per molti rappresenta la risposta “di destra” all’accusa che i media e le piattaforme mainstream favoriscano narrazioni progressiste; per altri è un pericoloso esempio di come la tecnologia possa diventare megafono di una visione.
Opportunità e avvertimenti
Gli specialisti informatici e gli studiosi della comunicazione hanno reagito con prudenza e con una serie di moniti pratici. Un’IA che scrive enciclopedie ha bisogno di trasparenza sulle fonti e sulle politiche di update. Senza log dei Cambiamenti, senza chiara attribuzione delle fonti, si crea una black box difficile da verificare. La responsabilità editoriale. Anche i migliori modelli linguistici commettono errori e riproducono bias. A differenza di un giornale, dove un redattore risponde legalmente di un’asserzione, qui la responsabilità sfuma. La moderazione dei contenuti. Temi come salute pubblica, eventi storici controversi, o affermazioni legali richiedono rigore che l’IA, da sola, non garantisce.
Eppure gli esperti non respingono a priori l’idea di utilizzare l’IA per costruire enciclopedie più efficienti. Molti suggeriscono ibridazioni possibili: sistemi in cui l’IA produce bozze e gli esperti umani — con regole chiare e verifiche pubbliche — le approvano. È una strada che preserva la velocità dell’automazione ma introduce filtri di controllo.
Se Grokipedia resta una fonte centrata sull’IA e su un controllo editoriale chiuso, rischia di collocarsi in una bolla informativa: utile per chi già si riconosce nelle sue categorie, cieca per chi chiede pluralismo. Se invece evolve verso modelli misti — con editor umani, trasparenza sulle fonti, API aperte — potrebbe diventare un laboratorio interessante per capire come far coesistere macchina e comunità nella produzione del sapere.

Un altro rischio, meno tecnologico e più sociale, è la frammentazione della “verità”. L’ecosistema informativo potrebbe strutturarsi in poli contrapposti, ciascuno con la propria enciclopedia, la propria “linea” sui fatti, la propria audience. È un’ipotesi che ha implicazioni civiche profonde: dalla formazione dell’opinione pubblica alla qualità del dibattito democratico.
Grokipedia è una pietra miliare simbolica nella strada dell’IA applicata alla conoscenza. La novità è potente e inquietante: un’enciclopedia fatta dall’intelligenza artificiale ha il potenziale di allargare l’accesso all’informazione, di aggiornare i dati in tempo reale, di sintetizzare grandi quantità di conoscenza.
Il lancio di Grokipedia apre una stagione di sperimentazione e di confronto: tra giganti tecnologici e comunità aperte, tra automazione e responsabilità. Il punto, per la società, è uno solo: non lasciamo che la forma della conoscenza venga decisa unicamente da chi ha i server più grandi o i modelli più rapidi. La verità non è (solo) questione di potenza computazionale: è questione di processi, di controlli, di regole condivise.
© RIPRODUZIONE RISERVATA








