🌐 Ellison: problema AI nei modelli come ChatGPT, Gemini, Grok, Llama
Indice dei contenuti
ToggleIl co‑fondatore di Oracle Larry Ellison afferma che il più grande limite degli attuali modelli di AI, da ChatGPT a Gemini, Grok e Llama, è che sono “tutti addestrati sugli stessi dati pubblici di internet”, rendendoli rapidamente beni commoditized. Per Ellison la prossima fase dell’intelligenza artificiale risiede nel collegare i modelli ai dati privati delle imprese.
La conversazione globale sull’intelligenza artificiale — da ChatGPT di OpenAI a Gemini di Google, Grok di xAI, Llama di Meta e Claude di Anthropic — ha un nuovo critique di alto profilo: Larry Ellison, co‑fondatore e Chief Technology Officer di Oracle. Durante la presentazione dei risultati del secondo trimestre fiscale 2026, Ellison ha messo in evidenza quella che considera la debolezza strutturale più significativa dell’attuale generazione di modelli AI: la totale dipendenza dai dati pubblici raccolti da internet, senza un accesso reale ai dati privati e proprietari delle imprese e dei settori industriali.
Secondo Ellison, “tutti i grandi modelli linguistici — OpenAI, Anthropic, Meta, Google, xAI — sono addestrati sugli stessi dati pubblici della rete. Sono tutti fondamentalmente la stessa cosa. Ed è per questo che si stanno rapidamente trasformando in commodity.” Questa affermazione sottolinea il rischio che, pur con innovazioni tecniche e dimensioni dei parametri crescenti, i modelli perdano differenziazione reale e valore competitivo intrinseco.
![]()
Il nucleo della critica: dati pubblici vs. dati privati
La riflessione di Ellison non è nuova nel dibattito tecnologico, ma la sua provenienza — da uno dei leader storici nel database enterprise — dà alle sue parole un peso particolare nel contesto dell’industria. Attualmente la maggior parte dei modelli generativi di grande scala (LLM) si basa su dati pubblici come articoli, libri, forum e altre risorse presenti online. Questo permette loro di apprendere le strutture del linguaggio e fornire risposte informative, ma — secondo Ellison — limita la loro capacità di offrire insight veramente personalizzati e operativi per applicazioni enterprise o settoriali specifiche.
L’argomentazione qui è che i principali concorrenti nel campo delle AI generative stanno attingendo allo stesso pozzo di informazioni, rendendo facile — da un punto di vista concettuale — replicare comportamenti e performance di base. Questo porta a modelli simili che, rispetto a pochi anni fa, offrono differenziazione minima nelle applicazioni pratiche che contano per le grandi imprese.
La visione di Ellison: l’AI di seconda generazione
Per Ellison, la vera frontiera dell’AI non sarà l’addestramento di modelli su dati pubblici, ma la capacità di farli “ragionare” sui dati privati, interni e sensibili delle aziende. Questi potrebbero includere dati di processo, interazioni con i clienti, risultati finanziari, documentazione tecnica e qualsiasi altra informazione che definisce operazioni uniche di un’impresa.
Oracle, con la sua profonda presenza nei sistemi di database aziendali, si posiziona esattamente su questo punto di snodo: la trasformazione dei dati enterprise in valore AI accessibile e interoperabile. L’azienda ha sviluppato tecnologie come l’AI Data Platform, basata su tecniche come Retrieval‑Augmented Generation (RAG), che permettono ai modelli di interagire con informazioni private senza compromettere la sicurezza o la riservatezza.
Questa spinta verso un utilizzo più profondo, specifico e proprietario dell’AI è parte integrante della strategia di Oracle per differenziarsi da competitor come Amazon Web Services, Microsoft Azure o Google Cloud, tutti impegnati anche nella corsa ai servizi di AI foundation.
Mercati e commodity
La riflessione di Ellison avviene in un momento storico in cui gli investitori e gli analisti stanno interrogandosi sulla sostenibilità economica del modello di sviluppo dell’AI attuale. Alcuni commentatori sostengono che la proliferazione di modelli simili, tutti basati sui medesimi dataset, potrebbe tradursi in una “race to the bottom” sui prezzi e sulle funzionalità di base, a favore di chi riesce a offrire integrazioni specifiche e dati proprietari premium.
In una recente analisi di settore, ad esempio, si osserva come l’ecosistema dell’intelligenza artificiale stia diventando sempre più competitivo, con diverse piattaforme che si contendono la supremazia in base a criteri diversi — accuratezza, velocità, costi di inferenza, specializzazione settoriale — ma tutti attingono dallo stesso bacino di dati pubblici per il training.
Questa situazione ha sollevato riflessioni anche da parte della comunità tecnica, che mette in evidenza come laddove i dati di training sono omogenei, la trasparenza e la governance dei modelli diventano ancora più cruciali nei settori regolamentati come finanza, sanità e giustizia.
Differenziazione e posizionamento di Oracle
Oracle non si limita a criticare il paradigma attuale: sta investendo massicciamente in infrastruttura dei dati e AI, puntando a un ruolo chiave nel mercato enterprise. Secondo fonti specializzate nel settore, Oracle ha stretto accordi con partner come NVIDIA e altri per fornire infrastrutture di cloud e AI che supportano training e inferenza con prestazioni elevate, pur mantenendo il focus sulla sicurezza e l’integrazione dei dati aziendali.
In un mondo aziendale sempre più orientato all’AI, la capacità di connettere modelli generativi alle basi dati strategiche di un’impresa — in modo sicuro, scalabile e conforme — è già vista da molti CIO come un vantaggio competitivo fondamentale
I limiti del modello “data proprietari”
Non tutti condividono la visione di Ellison. Alcuni esperti di AI sostengono che l’accesso ai dati privati, pur prezioso, comporta rischi significativi per la privacy, la compliance normativa e la gestione etica dei dati sensibili. Le aziende che intendono mettere i loro dati a disposizione di modelli AI devono affrontare sfide legate a sicurezza, governance e trasparenza, che non si risolvono semplicemente con tecnologie di retrieval o vector search.
Inoltre, i difensori dei modelli di AI basati su dati pubblici sostengono che il vero valore di questi sistemi risiede nella loro capacità di generalizzazione e nella comunità di sviluppatori e ricercatori che migliorano continuamente tali modelli attraverso innovazioni condivise. Per loro, il mercato non premia solo i dati proprietari, ma anche la capacità di costruire sistemi affidabili, sicuri e comprensibili per un pubblico vasto.
Verso la “next wave” dell’AI
La visione di Ellison indica un possibile spartiacque nel mondo dell’intelligenza artificiale: una transizione dai modelli generativi fondamentalmente simili basati su dati pubblici, a sistemi intelligenti che integrano profondamente dati proprietari di valore per triplicare capacità analitiche e decisionali.
Se avverrà davvero questo salto tecnologico e commerciale, resterà da vedere chi saprà guidarlo — i cloud provider attuali con modelli generalisti, oppure aziende come Oracle che scommettono su una AI più radicata nei dati di impresa.
© RIPRODUZIONE RISERVATA




