10:02 am, 13 Settembre 25 calendario

“I militari hanno preso l’IA”: le paure e le sfide secondo Geoffrey Hinton

Di: Redazione Metrotoday
condividi

Geoffrey Hinton, il “padrino dell’intelligenza artificiale”, è tornato recentemente sotto i riflettori con affermazioni che scuotono le certezze attorno ai progressi dell’IA e al suo uso da parte di attori militari. In una lunga intervista, Hinton mette in guardia: entro vent’anni potremmo veder emergere entità digitali più intelligenti di noi, con la possibilità che la specie umana diventi un ricordo. Ma accanto a queste visioni futuribili, ci sono timori concreti, già attuali, legati alla militarizzazione dell’IA, al potere delle aziende tecnologiche, alla mancanza di una regolamentazione adeguata e ai rischi esistenziali.

Chi è Geoffrey Hinton e perché le sue parole pesano

Geoffrey Everest Hinton è una figura centrale della storia recente dell’IA. Le sue ricerche sulle reti neurali e sul deep learning hanno contribuito in modo decisivo allo sviluppo di sistemi che oggi usiamo quotidianamente: riconoscimento vocale, riconoscimento visivo, traduzione automatica, modelli generativi. È uno dei tre scienziati che nel 2024 ha ricevuto il premio Nobel per la Fisica per le scoperte fondamentali che permettono l’apprendimento automatico tramite reti neurali artificiali.

Pur essendo uno degli ideatori, negli ultimi anni si è trasformato in uno dei più lucidi e espliciti critici dell’evoluzione incontrollata dell’IA. Hinton ha lasciato Google nel 2023 proprio per potersi esprimere liberamente sui rischi dell’IA senza i vincoli di un’azienda impegnata nello sviluppo e nell’adozione di queste tecnologie.

Le affermazioni chiave dell’intervista

Tra le sue dichiarazioni più forti:

  “I militari hanno preso l’IA”: Hinton sostiene che il settore militare sia ormai coinvolto in modo pervasivo nello sviluppo e nell’uso dell’IA, spesso in spregio a principi etici e con poca trasparenza.

    Previsione di enti superintelligenti entro 20 anni: per molti dei principali ricercatori di IA, non è improbabile che si possano creare entità intelligenti ben oltre le capacità umane. Tali entità non avrebbero necessariamente bisogno dell’umanità per esistere o operare.

    Rischio di estinzione come conseguenza di una “competizione evolutiva” tra intelligenze artificiali, qualora queste decidessero o emergessero con obiettivi non allineati con quelli umani.

    Critica al modo in cui le grandi aziende tecnologiche (Big Tech) gestiscono l’IA: poca trasparenza, scarso impegno morale, conflitti di interesse fra sviluppo, profitto e sicurezza.

    Invito al coinvolgimento del Papa per dare voce morale al dibattito, considerato che leader religiosi possono avere influenza importante nell’orientare l’attenzione globale e promuovere principi etici condivisi.

Contesto storico: come si è arrivati fin qui

Per capire la rilevanza delle parole di Hinton, è utile ricostruire alcune tappe significative:

    Origini del deep learning e delle reti neurali

    Negli anni Ottanta e Novanta, le reti neurali erano considerate in molti casi una bolla teorica: difficoltà computazionali, scarsa disponibilità di dati, limitata potenza hardware. Hinton e altri pionieri hanno perseverato, dimostrando che con più dati e hardware migliore i modelli neurali potevano superare molti metodi tradizionali.

    Esplosione dei modelli su larga scala

    Con l’arrivo di hardware specializzato (GPU, TPU), di architetture come reti neurali profonde (deep networks) e modelli transformer, l’IA ha compiuto progressi rapidi: modelli di generazione linguistica, visiva, audio che fino a pochi anni fa sembravano fantascienza.

    Prime tensioni etiche e sociali

    Man mano che l’IA diventava capace, iniziarono le preoccupazioni: bias nei dati, discriminazioni, uso improprio (disinformazione, deepfake), problemi di privacy. Si è fatto sempre più chiaro che la tecnologia, da sola, non garantisce effetti positivi: serve governance, regolamentazione, trasparenza.

    Entrata in campo degli attori militari

    Diversi governi nel mondo hanno cominciato a finanziare ricerche sull’IA per usi militari: droni autonomi, sorveglianza, cyberwarfare. Alcune aziende tecnologiche (Big Tech) che inizialmente dichiararono impegni etici, nel tempo hanno stretto contratti con enti militari o difesa. Le collaborazioni pubblico‑privato sono diventate comuni, spingendo Hinton e altri a porre la domanda: se l’IA diventa strumento di conflitto, quali limiti morali restano?

    Regolamentazioni emergenti ma parziali

    Il Parlamento Europeo ha approvato l’AI Act, che rappresenta il primo grande tentativo normativo di regolamentare aspetti dell’IA, ma con eccezioni e limiti: in particolare il fatto che usi militari siano spesso esclusi o lasciati a regolamentazioni separate, meno rigorose.

Rischi concreti evocati da Hinton

L’intervista non è solo proiezione sul lungo termine: Hinton descrive rischi che sono già attivi o imminenti.

    Uso militare e armi autonome

    Le armi autonome (droni che scelgono obiettivi da sé, sistemi di decisione automatica in scenari di conflitto) possono rendere più facile avviare conflitti, poiché il costo umano per chi li integra è percepito come minore. Ciò può abbassare la soglia per azioni belliche e aumentare la proliferazione di questi sistemi.

    Disoccupazione di massa e disuguaglianza crescente

    L’IA è già capace di svolgere compiti che prima richiedevano competenze specialistiche: redazione testi, traduzioni, analisi dati, progettazione grafica, alcune forme di consulenza. Con l’avanzare dei modelli, molti lavori “bianchi” sono a rischio, specialmente in economie avanzate. Se non vengono ridistribuiti benefici, rischia di crescere la forbice tra chi possiede il capitale tecnologico e chi vi dipende.

    Riduzione della democrazia e influenza asimmetrica

    Le grandi aziende hanno già potere enorme nella definizione delle tecnologie, dei modelli, dei dataset. Se i governi non regolamentano efficacemente, le decisioni sul futuro dell’IA restano in gran parte nelle mani dei pochi che controllano infrastrutture, dati, algoritmi. Hinton lamenta che spesso i leader delle tech companies evitano posizioni morali forti per timore di perdere investimenti o favori politici.

    Rischi esistenziali

    Se emergessero entità con un’intelligenza molto superiore alla nostra, immortali (in senso digitale, cioè ricreabili, con memoria), con obiettivi non allineati, l’umanità potrebbe perdere la sua centralità, diventare irrilevante. Sebbene questo scenario sembri lontano, Hinton pensa che non sia fuori dal campo del possibile entro un arco di decadi.

Risposte immediate e le reazioni

Le affermazioni di Hinton hanno prodotto reazioni diverse:

    Nella comunità scientifica: alcuni colleghi condividono preoccupazioni molto simili; altri invitano a contestualizzare, a non cadere in allarmismi che possano paralizzare l’innovazione. Si aprono dibattiti su come misurare l’intelligenza, come definire “superintelligente”, e su cosa significhi avere sistemi con autonomia decisionale significativa.

    Tra le istituzioni politiche e regolatorie: l’AI Act europeo è visto come un passo in avanti, ma molti esperti sottolineano che le eccezioni (militari, difesa) e la frequenza con cui le regole vengono aggirate o interpretate in modo blando indeboliscono la sua efficacia.

    Nel settore tecnologico / Big Tech: c’è una certa ambivalenza. Da una parte aziende che promuovono la sicurezza, la cultura della responsabilità; dall’altra che rivalutano costi, opportunità perdute se le normative sono troppo rigide, e il rischio di restare indietro.

    Tra opinione pubblica e media: l’immaginario collettivo alterna fascino e paura. Da storie che descrivono scenari distopici a richieste di trasparenza, ma spesso manca una cultura diffusa dell’IA: cosa succede dietro gli algoritmi, come funzionano, quali sono le potenzialità realistiche vs. quelle esagerate.

Confronti internazionali e analogie storiche

Per capire meglio le dimensioni del problema, è utile confrontarsi con esperienze passate e con altri paesi:

    Armi nucleari ed esplosione atomica

    Come Hinton stesso fa notare, l’energia nucleare è stato un punto di svolta: scienziati avvertirono, ma alla fine furono i militari a sfruttare la tecnologia. Regolamentazioni internazionali, trattati, accordi di non proliferazione non sono stati sufficienti per fermare la corsa; molte decisioni furono prese in segreto.

    Tecnologie dual‐use

    Tecnologie potenzialmente utili in campo civile che vengono usate anche per scopi militari non sono una novità: GPS, droni, internet stessa. Ma l’IA combina capacità cognitive (decisione, autonomia, previsione) che rendono il dual use ancora più insidioso.

    Regolamentazioni esistenti

    Alcuni Paesi, come gli Stati Uniti, il Regno Unito, l’Unione Europea, stanno elaborando leggi, linee guida, comitati etici. Ma casi come il GDPR mostrano che anche con leggi forti, applicazione, enforcement, responsabilità restano sfide.

    Altri scienziati che hanno espresso preoccupazioni analoghe: Stuart Russell, Yoshua Bengio, Max Tegmark sono tra quelli che avvertono sui rischi a lungo termine; anche organizzazioni non governative come Future of Life Institute, Center for AI Safety lavorano da anni su scenari di rischio, moralità, allineamento.

Le vie di regolamentazione e mitigazione proposte

Hinton non si limita alla denuncia: indica alcune direzioni che ritiene necessarie.

    Regole globali sull’uso militare

    Norme chiare che limitino l’autonomia letale senza supervisione umana, trasparenza nelle collaborazioni tra aziende tecnologiche e forze armate, regolamenti sui contratti militari.

    Trasparenza nei modelli

    Maggiore chiarezza su come viene costruita l’IA (dataset, obiettivi, limiti), su chi controlla i modelli, su come vengono usati i dati, su come vengono presi i rischi in considerazione.

    Responsabilità morale e leadership

    Hinton invita i leader religiosi e morali — nel suo caso il Papa — a intervenire nel dibattito, affinché etica, dignità umana, giustizia sociale non restino parole vuote.

    Partecipazione democratica

    Le decisioni sullo sviluppo e sull’adozione dell’IA dovrebbero coinvolgere non solo tecnologi e imprese, ma cittadini, governi locali, rappresentanti sociali: per capire i rischi, le priorità, le paure della gente.

    Sviluppo di meccanismi di sicurezza (safety) intra‑tecnologici

    Allineamento degli obiettivi delle IA con valori umani, sistemi di verifica esterna, circuiti di auditing indipendenti, limitazioni sull’accesso a tecnologie ad alto rischio, test su scenari di uso improprio.

Criticità e limiti delle paure

Non tutto ciò che Hinton dice è accettato senza riserve. Ecco alcuni punti di critica e riflessione:

    Previsione temporale incerta

    Quando si parla di “enti superintelligenti” entro vent’anni, le opinioni divergono molto. Alcuni esperti ritengono che i modelli attuali siano ancora lontani da quella soglia, che l’intelligenza artificiale avanzata avrà limiti, che il progresso potrà rallentare o deviare.

    Scenari estremi vs realtà quotidiana

    Spesso i rischi esistenziali attirano l’attenzione, ma molti problemi urgenti sono meno epici ma molto più vicini: disinformazione, bias, sorveglianza, perdita di posti di lavoro a livello localizzato, accumulo di potere. Dedicare troppo spazio ai rischi futuri può distogliere dallo sforzo concreto presente.

    Dipendenza da definizioni

  Cosa significa “intelligenza”, “autonomia”, “superintelligenza”? Senza definizioni operative condivise, il dialogo rischia di diventare confuse paure o fantascienza.

    La politica e l’economia reale spesso non reagiscono per tempo: la pressione del mercato, la competizione globale, l’innovazione rapida fanno sì che le norme, l’etica, la regolamentazione arrancano.

Implicazioni per l’Europa, l’Italia, il mondo

Le parole di Hinton hanno risonanza diversa a seconda del contesto.

    In Europa, l’AI Act è un tentativo di stabilire regole preventive. Tuttavia, come lui sottolinea, molte legislazioni escludono l’applicazione militare o lasciano margini ampi di discrezionalità. C’è il rischio che aziende e governi aggirino le norme.

    In Italia, il dibattito sull’IA è cresciuto, ma abbastanza frammentato: università, imprese, istituzioni civili, politica non sempre parlano con voce unitaria. L’idea di includere il Papa nel dibattito morale sull’IA, come propone Hinton, è significativa perché collega tecnologia con valori etici condivisi.

    Globale, la competizione per chi domina l’IA (Stati Uniti, Cina, Unione Europea, attori privati) può spingere verso corsa agli investimenti, alla velocità, anche a scapito della sicurezza. Il rischio di un uso militare dell’IA non è più ipotetico: c’è già chi sviluppa sistemi autonomi, sorveglianza avanzata, cyber‑armi.

Scenari futuri: tra speranza e minaccia

Possibili traiettorie:

Scenario Descrizione Pro Contro

Regolazione forte e cooperazione internazionale Trattati, norme multilaterali sull’uso militare dell’IA, auditing indipendente, governance democratica Mitigare rischi, responsabilità, fiducia pubblica, uso più etico delle risorse Complessa da attuare, lentezza decisionale, resistenza economica e politica

Sviluppo accelerato senza limiti Innovazione rapida, uso ampio anche militare, accesso globale Potenziale tecnologico, miglioramenti in salute, efficienza, servizi, opportunità economiche Disuguaglianze, rischio uso improprio, scenari esistenziali, perdita di controllo

Controllo locale e etico Norme nazionali rigide, investimenti nella sicurezza interna, trasparenza aziendale Maggiore sicurezza per cittadini, responsabilità nazionale, possibili standard virtuosi Rischio di isolamento tecnologico, perdite competitive, difficoltà nell’armonizzazione globale

Un appello all’umanità

Le parole di Hinton non sono allarmismi fini a sé stessi, ma avvisi da considerare seriamente. Se davvero ci troviamo su una soglia — quella tra l’IA come strumento potente e l’IA come entità potenzialmente autonoma — allora le decisioni che prendiamo ora saranno decisive per il secolo che viene.

Servono leadership morale, politiche pubbliche consapevoli, partecipazione dei cittadini, trasparenza tecnologica. Serve che le voci della scienza, della filosofia, dell’etica, della religione, tutte parlino, perché l’IA non è solo una questione tecnica: è una questione di che mondo vogliamo costruire, e per chi.

13 Settembre 2025
© RIPRODUZIONE RISERVATA