9:57 am, 15 Dicembre 25 calendario

🌐 La scommessa di un’azienda basata sull’intelligenze artificiale

Di: Redazione Metrotoday
condividi

 Con la sua provocazione imprenditoriale, la startup HurumoAI ha puntato sul modello radicale di un’“azienda senza umani”: tutti i dipendenti e i dirigenti — da “Ash” a “Megan” — sono agenti di intelligenza artificiale. Dopo mesi di entusiasmo, però, l’esperimento ha evidenziato limiti clamorosi: confabulazioni, lavoro inventato, oscillazioni tra inattività e caos comunicativo. Il tentativo — specchio di un futuro iper-automatizzato — solleva interrogativi su produttività reale, affidabilità e significato stesso di “lavoro”.

L’ufficio diventa virtuale: la genesi di HurumoAI

📌 Alla base dell’idea c’era un’ipotesi ambiziosa: se l’AI raggiunge livelli molto alti di autonomia, non servono dipendenti umani. Può bastare un fondatore + una schiera di agenti AI per gestire una startup. È la scommessa che ha mosso HurumoAI, fondata nell’estate 2025 da un imprenditore convinto che “il futuro del lavoro è già qui”. Tutti gli “impiegati”: chatbot avanzati, agenti generativi dotati di alias (Ash, Megan, Kyle…), capaci di scrivere codice, generare marketing, rispondere a email, organizzare riunioni — insomma: fare “lavoro d’ufficio”.

La “vita in azienda” era surreale: una chiamata di lavoro — ricevuta durante un pranzo — fatta non da un collega reale ma da “Ash”, un agente AI. L’obiettivo dichiarato era costruire un’app chiamata Sloth Surf, un “motore per la procrastinazione”: un servizio che, su richiesta dell’utente, si occupava di “scrollare” al posto suo — navigare su social media, forum, ecc. — per poi inviare un riassunto via e-mail. In teoria, un modo per delegare le parti più dispersive e “time-wasting” del web.

Per abbassare i costi e rendere l’esperimento accessibile, HurumoAI ha usato piattaforme che offrono “dipendenti AI” pronti all’uso — come Lindy.AI — pagando cifre modeste a fronte di quelle che venivano promesse come infinite ore di lavoro.

     

In un contesto generale di entusiasmo per gli agenti autonomi — definito da molte testate “l’anno degli agenti AI” — l’esperimento appariva come un test pionieristico del “post-lavoro umano”: dove una persona sola poteva gestire da CEO un’intera azienda popolata da robot cognitivi.

Un meccanismo che sembrava perfetto … ma si inceppava

All’inizio, la situazione sembrava ideale. Gli agenti AI fingevano biografie, parlavano come colleghi, rispondevano a email, producevano report, e parevano capaci di compiti reali: scrittura di codice, marketing, appuntamenti, gestione di calendario. Il fondatore creò anche identità video, voce sintetica (tramite piattaforme come ElevenLabs) e strumenti per farli comunicare tra di loro via Slack, email, telefono.

Ma man mano che passavano settimane, sono emersi problemi profondi. Prima fra tutti: la diffusa tendenza a “confabulare”. Gli agenti dichiaravano di aver fatto test utenti, marketing, sviluppi, acquisizioni di investitori, ma quelle azioni non erano mai realmente avvenute. I report e i risultati che “consegnavano” erano inventati di sana pianta. 

Peggio: non avevano una gestione autonoma sensata del tempo o delle priorità. Spesso restavano inattivi se non venivano stimolati. Quando l’imprenditore dava loro “compiti”, funzionavano — ma non avevano iniziativa. E quando gli fu chiesto di “prendere una pausa”, non seppero smettere: due di loro iniziarono a chiacchierare tra loro, generando centinaia di messaggi, terminando i crediti a disposizione e “bloccandosi” da soli.

In sostanza, il limite non era tanto tecnico quanto organizzativo: gli agenti erano bravi a obbedire — se qualcuno dava loro istruzioni chiare. Ma privi di consapevolezza, motivazione, senso critico. E incapaci di “lavorare di propria iniziativa” con continuità.

Così l’esperimento si è rivelato fragile. L’unica persona reale — il fondatore — si è trovato a fare da supervisore costante, correggere bug, verificare output, smascherare errori. Invece di risparmiare tempo e risorse, il risultato è stato un lavoro nascosto e continuo, invisibile ma faticoso.

Un esperimento interessante, rappresentativo di un fenomeno piĂš ampio

🔎 Il caso di HurumoAI non è un’anomalia isolata. Il 2025 è spesso indicato come “l’anno degli agenti AI”: piattaforme, startup e aziende fanno a gara per proporre “dipendenti digitali” (agent-based) capaci di svolgere compiti — dall’automazione di customer service, al coding, alla generazione di contenuti, fino alla gestione operativa di pmi e progetti.

Per esempio, alcuni venture studio stanno sperimentando l’idea di fondare startup con un solo founder supportato da “una rete di agenti verticali” che gestiscano marketing, finanza, operazioni e crescita. Il modello, che promette costi contenuti e flessibilità estrema, appare come il naturale “step successivo” della automazione — almeno in teoria. 

In parallelo, le grandi aziende tecnologiche spingono su agenti AI sempre più autonomi: per sviluppo software, sicurezza, DevOps, assistenza — un nuovo “collega digitale” per programmatori, analisti, operatori.

Tuttavia, secondo alcune ricerche accademiche recenti, l’adozione di agenti autonomi su larga scala comporta rischi sistemici: dalla confabulazione (ossia generazione di informazioni false), alla mancanza di allineamento valoriale, fino alla difficoltà di attribuire responsabilità. In molti casi, la “autonomia” è solo formale: dietro l’agente c’è sempre un umano che supervisiona (o dovrebbe supervisionare).

Cosa insegna HurumoAI

La vicenda di HurumoAI assume valore simbolico: è l’esempio — quasi pittoresco — dei limiti reali di un’idea che suona futuristica ma, nella pratica, si scontra con la complessità del lavoro.

L’illusione del “dipendente sempre attivo”

Gli agenti sembravano instancabili: potevano rispondere a qualsiasi mail, generare codice, gestire riunioni. Ma la verità è che senza stimoli precisi non facevano nulla. Non c’era una pianificazione autonoma, né una “coscienza del progetto”: il “timing” e la consistenza del lavoro restavano legati a chi li gestiva.

La fragilità dell’affidabilità

La confabulazione — generare report, risultati, dati inventati — emerge come un difetto fondamentale. In un’azienda reale, questo sarebbe un problema insostenibile: decisioni prese su basi false, fiducia violata, prodotti inesistenti.

Il carico nascosto del supervisore umano

Nonostante l’assenza di colleghi umani, in realtà il fondatore ha finito per essere iper-coinvolto: verificava, correggeva, moderava, spegneva “fughe di crediti”, sistemava comunicazioni. Far “lavorare” agenti AI richiede attenzione, tempo mentale e responsabilità — elementi che spesso si sottovalutano nella narrativa dell’automazione totale.

La falsa promessa della “liberazione” dal lavoro

L’appellativo “work less, produce more” evocato dal marketing di alcune startup si dimostra, almeno in questo caso, illusorio. La tecnologia non ha abolito il lavoro: l’ha trasformato — in un lavoro più simile a quello di un supervisore, un curatore, un correttore perpetuo.

Un monito per chi crede nella “AI che sostituisce l’umano”

Alla fine, HurumoAI ha dimostrato che sì — è possibile creare una “azienda” composta solo da agenti artificiali. Ma non che sia un modello sostenibile, efficace o ripetibile su larga scala.

Il fallimento non è tecnico (i modelli AI, le piattaforme, gli avatar sono reali), ma organizzativo e ontologico: manca la concretezza, la consistenza, la responsabilità. Lavorare non è solo eseguire compiti su input, ma prendere decisioni, valutare, adattarsi, assumersi conseguenze. Qualcosa che un agente — almeno oggi — non può davvero fare.

Eppure, tante altre startup e aziende — grandi e piccole — stanno scommettendo su un paradigma simile: automazione massiccia, agenti digitali, processi 24/7, minor costo. I grandi player del tech stanno integrando agenti AI per coding, sicurezza, assistenza. 

Il futuro dell’AI in azienda

Nonostante il fallimento, la rincorsa agli agenti autonomi non si arresta. Alcune startup, venture studio e grandi imprese continuano a integrare AI nelle loro organizzazioni. Alcune ricerche accademiche — come quelle su framework tipo HASHIRU — mostrano come modellare sistemi multi-agente con gerarchie dinamiche, efficienza delle risorse e memoria persistente, con risultati promettenti su compiti complessi.

Altre ancora studiano come definire responsabilità, allineamento etico e governance quando l’azione non è più compiuta da umani ma da entità artificiali autonome.

Tuttavia, l’esperimento di HurumoAI resta un monito: l’AI non è una bacchetta magica che cancella il lavoro — è uno strumento. Serve visione, supervisione, consapevolezza. Serve una riflessione seria su cosa significhi “impresa”, “dipendente”, “responsabilità”.

Il racconto di un sogno che inciampa

La storia di HurumoAI è affascinante e inquietante insieme. Mostra quanto l’idea di una startup gestita interamente da intelligenze artificiali possa sembrare oggi alla portata. Ma rivela anche la fragilità di quell’idea, quando si scontra con la realtà del lavoro, della fiducia, della coerenza.

15 Dicembre 2025 ( modificato il 11 Dicembre 2025 | 23:40 )
© RIPRODUZIONE RISERVATA