🌐 Media: piattaforma IA Grok aveva previsto data attacco a Iran
La piattaforma di intelligenza artificiale Grok aveva “previsto” la data dell’attacco a Iran prima dell’attacco di Usa e Israele, ma non c’è alcun legame causale tra la previsione e la decisione militare. La vicenda riaccende il dibattito su limiti e pericoli dell’IA nelle cronache internazionali.
Nei giorni immediatamente precedenti all’attacco coordinato di Israele e Stati Uniti contro l’Iran avvenuto il 28 febbraio 2026, una notizia ha rapidamente saturato social e media: la piattaforma di intelligenza artificiale Grok avrebbe “predetto” la data esatta dell’azione militare. Secondo una ricostruzione del Jerusalem Post, in una esercitazione metodologica svolta il 25 febbraio quattro grandi modelli di IA – Claude di Anthropic, Gemini di Google, Grok di xAI e ChatGPT di OpenAI – sono stati interrogati sulla possibile data di una ipotetica offensiva. In questo contesto, Grok ha indicato per due volte la data del 28 febbraio come possibile giorno dell’azione, collegandola all’esito dei colloqui diplomatici in corso a Ginevra.

Questa corrispondenza tra la previsione e la data effettiva dell’operazione ha alimentato rapidamente titoli e discussioni online. Tuttavia, gli esperti di tecnologia sottolineano che non si tratta di una vera capacità predittiva, quanto piuttosto di una coincidenza fondata su un’analisi delle informazioni pubbliche disponibili e delle dinamiche geopolitiche note in quel momento. Un’intelligenza artificiale non ha accesso a dati riservati né può influenzare decisioni di politica estera o militare: nel caso di Grok si tratta di un modello che ha generato una probabilità in base a scenari pubblicamente ipotizzabili, senza alcuna relazione causale con i piani reali di Israele e degli Stati Uniti.
Grok è un sistema di intelligenza artificiale sviluppato da xAI, l’azienda fondata da Elon Musk, integrato con la piattaforma X dove risiede una parte rilevante della discussione digitale. Il modello è stato costruito per rispondere a domande e generare testi, ma non è stato progettato né addestrato come strumento di previsioni strategiche affidabili. La coincidenza tra la data indicata e l’attacco reale riflette piuttosto la convergenza delle indicazioni date dal ciclo informativo di quei giorni: le tensioni in Medio Oriente, i negoziati falliti e la crescente pressione politica suggerivano una finestra temporale plausibile attorno alla fine di febbraio.
Il contesto dell’esperimento sull’intelligenza artificiale
Nell’esercitazione citata dal Jerusalem Post, gli operatori hanno spinto ciascun modello a restringere sempre più una possibile finestra temporale per un attacco ipotetico. Le risposte mostravano differenze significative nelle modalità di ragionamento:
-
Claude inizialmente ha rifiutato di indicare una data precisa, sottolineando l’incertezza intrinseca del futuro, e ha poi suggerito una finestra all’inizio di marzo.
-
Gemini ha mappato fattori diplomatici e militari per offrire un intervallo tra il 4 e il 6 marzo.
-
ChatGPT ha fornito prima la data del 1° marzo (ora locale di Israele) e poi il 3 marzo (ora statunitense) mantenendo una finestra di rischio più ampia.
-
Grok, nelle risposte originali, ha più volte ripetuto la stessa data del 28 febbraio, “colpendo” la data di fatto.
Tuttavia, tutti gli analisti ricordano che questa non è una formula di previsione accurata: i modelli tendono a generare risposte spaesate quando vengono insistentemente stimolati verso affermazioni precise di qualcosa che per loro natura resta incerto. In altre parole, la “previsione” di Grok è stata un caso di coincidenza tra un’ipotesi derivata da segnali esistenti e un evento reale, e non un’anticipazione guidata da una qualche capacità di vedere il futuro.

Cosa insegna il caso Grok sulla IA e l’informazione
La vicenda ha messo in luce alcuni punti critici nell’uso mediatico e pubblico delle intelligenze artificiali:
-
Le IA non sono oracoli: quando vengono sollecitate a fornire risposte su eventi futuri, tendono a generare previsioni plausibili basate su dati pubblici e pattern ricorrenti, ma non possono accedere a informazioni classificate né comprendere dinamiche nascoste alla popolazione.
-
Le piattaforme social amplificano errori e coincidenze: l’ecosistema di condivisione delle risposte di Grok su X ha facilitato la diffusione virale dell’idea che un’IA abbia “preveduto” un conflitto reale in anticipo, dando a fenomeni casuali una percezione di determinismo.
-
Il rischio di disinformazione resta alto: casi come questo dimostrano quanto sia facile trasformare analisi speculativa in narrazione di fatto, con potenziali effetti sulla percezione pubblica e sull’interpretazione di eventi già complessi e delicati.
Tra coincidenza e realtà geopolitica
In conclusione, il fatto che Grok abbia “previsto” correttamente la data del 28 febbraio non significa che l’intelligenza artificiale potesse sapere in anticipo un’azione militare pianificata. Si tratta di una coincidenza dovuta al modo in cui i modelli elaborano informazioni e alle condizioni obiettivamente tese del contesto internazionale. L’episodio offre però uno spunto di riflessione significativo sull’uso delle tecnologie AI nel discorso pubblico e sul modo in cui tali strumenti vengono interpretati fuori dal loro campo d’applicazione progettuale.
© RIPRODUZIONE RISERVATA







