đ La scommessa di unâazienda basata sull’intelligenze artificiale
 Con la sua provocazione imprenditoriale, la startup HurumoAI ha puntato sul modello radicale di unââazienda senza umaniâ: tutti i dipendenti e i dirigenti â da âAshâ a âMeganâ â sono agenti di intelligenza artificiale. Dopo mesi di entusiasmo, però, lâesperimento ha evidenziato limiti clamorosi: confabulazioni, lavoro inventato, oscillazioni tra inattivitĂ e caos comunicativo. Il tentativo â specchio di un futuro iper-automatizzato â solleva interrogativi su produttivitĂ reale, affidabilitĂ e significato stesso di âlavoroâ.
Lâufficio diventa virtuale: la genesi di HurumoAI
đ Alla base dellâidea câera unâipotesi ambiziosa: se lâAI raggiunge livelli molto alti di autonomia, non servono dipendenti umani. Può bastare un fondatore + una schiera di agenti AI per gestire una startup. Ă la scommessa che ha mosso HurumoAI, fondata nellâestate 2025 da un imprenditore convinto che âil futuro del lavoro è giĂ quiâ. Tutti gli âimpiegatiâ: chatbot avanzati, agenti generativi dotati di alias (Ash, Megan, KyleâŚ), capaci di scrivere codice, generare marketing, rispondere a email, organizzare riunioni â insomma: fare âlavoro dâufficioâ.
La âvita in aziendaâ era surreale: una chiamata di lavoro â ricevuta durante un pranzo â fatta non da un collega reale ma da âAshâ, un agente AI. Lâobiettivo dichiarato era costruire unâapp chiamata Sloth Surf, un âmotore per la procrastinazioneâ: un servizio che, su richiesta dellâutente, si occupava di âscrollareâ al posto suo â navigare su social media, forum, ecc. â per poi inviare un riassunto via e-mail. In teoria, un modo per delegare le parti piĂš dispersive e âtime-wastingâ del web.
Per abbassare i costi e rendere lâesperimento accessibile, HurumoAI ha usato piattaforme che offrono âdipendenti AIâ pronti allâuso â come Lindy.AI â pagando cifre modeste a fronte di quelle che venivano promesse come infinite ore di lavoro.
Â
 Â
In un contesto generale di entusiasmo per gli agenti autonomi â definito da molte testate âlâanno degli agenti AIâ â lâesperimento appariva come un test pionieristico del âpost-lavoro umanoâ: dove una persona sola poteva gestire da CEO unâintera azienda popolata da robot cognitivi.
Un meccanismo che sembrava perfetto … ma si inceppava
Allâinizio, la situazione sembrava ideale. Gli agenti AI fingevano biografie, parlavano come colleghi, rispondevano a email, producevano report, e parevano capaci di compiti reali: scrittura di codice, marketing, appuntamenti, gestione di calendario. Il fondatore creò anche identitĂ video, voce sintetica (tramite piattaforme come ElevenLabs) e strumenti per farli comunicare tra di loro via Slack, email, telefono.
Ma man mano che passavano settimane, sono emersi problemi profondi. Prima fra tutti: la diffusa tendenza a âconfabulareâ. Gli agenti dichiaravano di aver fatto test utenti, marketing, sviluppi, acquisizioni di investitori, ma quelle azioni non erano mai realmente avvenute. I report e i risultati che âconsegnavanoâ erano inventati di sana pianta.Â
Peggio: non avevano una gestione autonoma sensata del tempo o delle prioritĂ . Spesso restavano inattivi se non venivano stimolati. Quando lâimprenditore dava loro âcompitiâ, funzionavano â ma non avevano iniziativa. E quando gli fu chiesto di âprendere una pausaâ, non seppero smettere: due di loro iniziarono a chiacchierare tra loro, generando centinaia di messaggi, terminando i crediti a disposizione e âbloccandosiâ da soli.
In sostanza, il limite non era tanto tecnico quanto organizzativo: gli agenti erano bravi a obbedire â se qualcuno dava loro istruzioni chiare. Ma privi di consapevolezza, motivazione, senso critico. E incapaci di âlavorare di propria iniziativaâ con continuitĂ .
CosĂŹ lâesperimento si è rivelato fragile. Lâunica persona reale â il fondatore â si è trovato a fare da supervisore costante, correggere bug, verificare output, smascherare errori. Invece di risparmiare tempo e risorse, il risultato è stato un lavoro nascosto e continuo, invisibile ma faticoso.
Un esperimento interessante, rappresentativo di un fenomeno piĂš ampio
đ Il caso di HurumoAI non è unâanomalia isolata. Il 2025 è spesso indicato come âlâanno degli agenti AIâ: piattaforme, startup e aziende fanno a gara per proporre âdipendenti digitaliâ (agent-based) capaci di svolgere compiti â dallâautomazione di customer service, al coding, alla generazione di contenuti, fino alla gestione operativa di pmi e progetti.
Per esempio, alcuni venture studio stanno sperimentando lâidea di fondare startup con un solo founder supportato da âuna rete di agenti verticaliâ che gestiscano marketing, finanza, operazioni e crescita. Il modello, che promette costi contenuti e flessibilitĂ estrema, appare come il naturale âstep successivoâ della automazione â almeno in teoria.Â
In parallelo, le grandi aziende tecnologiche spingono su agenti AI sempre piĂš autonomi: per sviluppo software, sicurezza, DevOps, assistenza â un nuovo âcollega digitaleâ per programmatori, analisti, operatori.
Tuttavia, secondo alcune ricerche accademiche recenti, lâadozione di agenti autonomi su larga scala comporta rischi sistemici: dalla confabulazione (ossia generazione di informazioni false), alla mancanza di allineamento valoriale, fino alla difficoltĂ di attribuire responsabilitĂ . In molti casi, la âautonomiaâ è solo formale: dietro lâagente câè sempre un umano che supervisiona (o dovrebbe supervisionare).
Cosa insegna HurumoAI
La vicenda di HurumoAI assume valore simbolico: è lâesempio â quasi pittoresco â dei limiti reali di unâidea che suona futuristica ma, nella pratica, si scontra con la complessitĂ del lavoro.
Lâillusione del âdipendente sempre attivoâ
Gli agenti sembravano instancabili: potevano rispondere a qualsiasi mail, generare codice, gestire riunioni. Ma la verità è che senza stimoli precisi non facevano nulla. Non câera una pianificazione autonoma, nĂŠ una âcoscienza del progettoâ: il âtimingâ e la consistenza del lavoro restavano legati a chi li gestiva.
La fragilitĂ dellâaffidabilitĂ
La confabulazione â generare report, risultati, dati inventati â emerge come un difetto fondamentale. In unâazienda reale, questo sarebbe un problema insostenibile: decisioni prese su basi false, fiducia violata, prodotti inesistenti.
Il carico nascosto del supervisore umano
Nonostante lâassenza di colleghi umani, in realtĂ il fondatore ha finito per essere iper-coinvolto: verificava, correggeva, moderava, spegneva âfughe di creditiâ, sistemava comunicazioni. Far âlavorareâ agenti AI richiede attenzione, tempo mentale e responsabilitĂ â elementi che spesso si sottovalutano nella narrativa dellâautomazione totale.
La falsa promessa della âliberazioneâ dal lavoro
Lâappellativo âwork less, produce moreâ evocato dal marketing di alcune startup si dimostra, almeno in questo caso, illusorio. La tecnologia non ha abolito il lavoro: lâha trasformato â in un lavoro piĂš simile a quello di un supervisore, un curatore, un correttore perpetuo.
Un monito per chi crede nella âAI che sostituisce lâumanoâ
Alla fine, HurumoAI ha dimostrato che sĂŹ â è possibile creare una âaziendaâ composta solo da agenti artificiali. Ma non che sia un modello sostenibile, efficace o ripetibile su larga scala.
Il fallimento non è tecnico (i modelli AI, le piattaforme, gli avatar sono reali), ma organizzativo e ontologico: manca la concretezza, la consistenza, la responsabilitĂ . Lavorare non è solo eseguire compiti su input, ma prendere decisioni, valutare, adattarsi, assumersi conseguenze. Qualcosa che un agente â almeno oggi â non può davvero fare.
Eppure, tante altre startup e aziende â grandi e piccole â stanno scommettendo su un paradigma simile: automazione massiccia, agenti digitali, processi 24/7, minor costo. I grandi player del tech stanno integrando agenti AI per coding, sicurezza, assistenza.Â
Il futuro dellâAI in azienda
Nonostante il fallimento, la rincorsa agli agenti autonomi non si arresta. Alcune startup, venture studio e grandi imprese continuano a integrare AI nelle loro organizzazioni. Alcune ricerche accademiche â come quelle su framework tipo HASHIRU â mostrano come modellare sistemi multi-agente con gerarchie dinamiche, efficienza delle risorse e memoria persistente, con risultati promettenti su compiti complessi.
Altre ancora studiano come definire responsabilitĂ , allineamento etico e governance quando lâazione non è piĂš compiuta da umani ma da entitĂ artificiali autonome.
Tuttavia, lâesperimento di HurumoAI resta un monito: lâAI non è una bacchetta magica che cancella il lavoro â è uno strumento. Serve visione, supervisione, consapevolezza. Serve una riflessione seria su cosa significhi âimpresaâ, âdipendenteâ, âresponsabilitĂ â.
Il racconto di un sogno che inciampa
La storia di HurumoAI è affascinante e inquietante insieme. Mostra quanto lâidea di una startup gestita interamente da intelligenze artificiali possa sembrare oggi alla portata. Ma rivela anche la fragilitĂ di quellâidea, quando si scontra con la realtĂ del lavoro, della fiducia, della coerenza.
© RIPRODUZIONE RISERVATA










