8:07 am, 5 Marzo 26 calendario

🌐 Canada, OpenAI valutò di avvisare la polizia prima della strage

Di: Redazione Metrotoday
condividi

Un’inchiesta del Wall Street Journal rivela che OpenAI, la società che sviluppa ChatGPT, aveva considerato di avvertire la polizia canadese riguardo ai messaggi violenti di una persona che mesi dopo ha compiuto una strage in una scuola di Tumbler Ridge (Canada). La decisione di non contattare le autorità ha riacceso il dibattito su cosa può o deve fare un sistema di IA per prevenire crimini.

Il caso della scuola di Tumbler Ridge

Nel febbraio 2026 un attacco armato in una scuola di Tumbler Ridge, in British Columbia, ha causato la morte di otto persone e decine di feriti, scatenando shock e indignazione in Canada e all’estero.

Secondo gli approfondimenti giornalistici, la sospettata, identificata come Jessie Van Rootselaar, aveva interagito con ChatGPT mesi prima della tragedia, descrivendo scenari violenti e parlando di armi in chat con l’intelligenza artificiale.

OpenAI sapeva, ma non avvisò la polizia

I sistemi automatizzati di controllo di ChatGPT avevano segnalato i messaggi ritenuti potenzialmente rischiosi e l’account della sospettata venne sospeso nel giugno 2025. Alcuni dipendenti di OpenAI sarebbero stati preoccupati e avevano discusso internamente la possibilità di contattare la polizia canadese.

Tuttavia, l’azienda decise di non allertare direttamente le autorità prima dell’attentato, affermando che l’attività rilevata non soddisfaceva i criteri di “rischio credibile e imminente” necessari per segnalarla alle forze dell’ordine secondo le proprie policy.

Che cosa possono fare ChatGPT e IA simili

La vicenda ha riaperto il dibattito pubblico su fino a che punto strumenti come ChatGPT possono o devono intervenire per prevenire crimini reali.

  • I sistemi di moderazione automatica monitorano le conversazioni per individuare segnali di violenza o uso improprio, e possono bloccare o sospendere account quando vengono rilevate attività che violano le regole.

  • Se il contenuto supera determinate soglie di rischio, può essere passato a revisori umani interni per ulteriori valutazioni.

  • In casi estremi e con prove chiare di un pericolo imminente e credibile, una società potrebbe decidere di mettere in contatto le autorità competenti, ma ciò richiede un quadro giuridico e pratico complesso tra tutela della privacy e sicurezza pubblica.

Al momento non ci sono casi pubblici confermati in cui ChatGPT o sistemi simili abbiano spontaneamente allertato la polizia prima che un crimine venisse compiuto, al di fuori di scenari in cui degli operatori umani, non l’IA in autonomia, hanno preso iniziative.

La reazione delle autorità canadesi

A seguito delle rivelazioni, funzionari del governo canadese hanno invitato rappresentanti di OpenAI a Ottawa per discutere sulle politiche di sicurezza e i criteri con cui si decide se segnalare alle forze dell’ordine attività potenzialmente pericolose rilevate dalle intelligenze artificiali.

Il dibattito su IA, sicurezza e responsabilità

La situazione solleva questioni difficili:

  • Privacy vs. prevenzione: fino a che punto un’azienda può condividere dati degli utenti con le autorità?

  • Limiti dell’IA: un modello di linguaggio non ha giudizio umano e non può sostituire l’interpretazione completa del contesto.

  • Responsabilità etica: chi decide quando una minaccia è “imminente e credibile”?

Esperti legali e di sicurezza sottolineano che le IA non operano come agenti autonomi di polizia, ma come strumenti che richiedono supervisione umana e procedure chiare per intervenire responsabilmente.

Il caso in Canada evidenzia un dilemma centrale dell’era digitale: strumenti di intelligenza artificiale possono individuare segnali potenzialmente pericolosi, ma non sono progettati né legalmente autorizzati ad agire come forze dell’ordine. La decisione di OpenAI di non avvertire la polizia prima della tragedia pone l’accento sulla necessità di definire normative chiare per bilanciare prevenzione dei crimini, protezione dei dati e libertà individuali

5 Marzo 2026 ( modificato il 25 Febbraio 2026 | 0:11 )
© RIPRODUZIONE RISERVATA