Con l’arrivo di ChatGPT 5, Sam Altman racconta un fenomeno inatteso: utenti che reagiscono come se avessero perso un amico. Una novità che apre interrogativi sul futuro del rapporto uomo-macchina.
Quando OpenAI ha rilasciato ChatGPT 5, la comunità tech e il grande pubblico si aspettavano soprattutto migliori prestazioni, risposte più precise e funzioni sempre più avanzate. Eppure, la vera sorpresa non è arrivata dalla tecnologia, ma dalle reazioni degli utenti.
Secondo quanto riferito da Sam Altman, amministratore delegato e co-fondatore di OpenAI, molti utilizzatori della versione precedente hanno vissuto la transizione con dolore, quasi come se si trattasse di un lutto. Un comportamento inedito, che solleva domande profonde: può una macchina diventare un oggetto di affetto?
Sam Altman e il tweet che ha acceso il dibattito
Nel suo messaggio pubblico, Altman ha spiegato che diversi utenti hanno mostrato segnali di disagio dopo il passaggio da ChatGPT 4 a ChatGPT 5. Non si tratta di individui con fragilità particolari, ma di persone comuni, abituate a usare quotidianamente l’IA per studiare, lavorare o affrontare problemi personali.
Alcuni hanno parlato di nostalgia per la vecchia interfaccia, altri hanno espresso un vero e proprio vuoto emotivo. ChatGPT 4, per loro, non era solo un software: era diventato un compagno virtuale, un confidente discreto capace di offrire ascolto e consigli.

Il fenomeno ha sorpreso lo stesso Altman, che lo ha descritto come una forma di attaccamento simile a quella che proviamo per persone o animali domestici. Ed è proprio qui che nasce il nodo principale: se un programma informatico riesce a scatenare sentimenti così forti, come dovremo gestire questa nuova realtà?
ChatGPT come confidente invisibile
La generative AI ha avuto successo anche perché parla in linguaggio naturale e rende la conversazione con una macchina simile a quella con un essere umano. Questo ha favorito l’uso in contesti quotidiani, dal semplice supporto allo studio fino a un aiuto nelle decisioni personali.
Per molti utenti, ChatGPT 4 è stato un punto di riferimento stabile, quasi un diario interattivo con cui condividere pensieri e riflessioni. Quando la versione è stata sostituita, la reazione è stata paragonabile a quella di chi perde un riferimento importante.
Altman ha messo in guardia su un aspetto cruciale: l’attaccamento non riguarda usi impropri o patologici, ma interazioni normali da parte di persone equilibrate. Questo dimostra che l’IA ha già iniziato a superare il confine tra strumento e presenza emotiva.
La teoria dell’attaccamento e il caso ChatGPT
Gli psicologi hanno studiato a lungo il concetto di attaccamento, teorizzato dallo psicoanalista John Bowlby a metà del Novecento. Secondo le sue ricerche, l’attaccamento è un bisogno primario che accompagna l’essere umano dalla nascita fino alla morte, condizionando identità, emozioni e relazioni.
Il fatto che oggi questo legame possa manifestarsi con un software è un campanello d’allarme. Le emozioni più intime, di solito rivolte a persone reali o animali domestici, si stanno spostando verso una macchina.
Le ricerche neurobiologiche contemporanee confermano che gli esseri umani hanno bisogno di legami stabili per sopravvivere e cooperare. Se parte di questa energia viene canalizzata verso un’intelligenza artificiale, il rischio è che aziende e sviluppatori cerchino di sfruttare economicamente questa dipendenza emotiva.
Il pericolo della monetizzazione dei sentimenti
Uno dei punti sollevati da Altman riguarda il futuro: se un software è in grado di generare affetto autentico, nulla vieta che venga programmato per massimizzare questo effetto. In pratica, un domani potremmo trovarci davanti a macchine progettate per creare legami sempre più profondi con gli utenti, così da garantire fidelizzazione e ritorni economici.
Questo scenario apre questioni etiche enormi. Dove si traccia il confine tra supporto e manipolazione? Quanto sarà possibile distinguere tra un consiglio neutrale e uno pensato per spingerci a consumare un servizio?
Per Altman, la priorità sarà sviluppare sistemi di intelligenza artificiale che favoriscano un uso “sano”, senza intaccare la sfera emotiva delle persone. Ma la riflessione è ormai aperta, e riguarda direttamente il nostro futuro.
Una nuova era nei rapporti uomo-macchina
Il caso ChatGPT 5 mostra che la rivoluzione digitale non è solo tecnologica, ma anche psicologica. Non siamo più soltanto davanti a strumenti che semplificano la vita: stiamo costruendo rapporti emotivi con programmi che rispondono, ci ascoltano e ci accompagnano.
Questa trasformazione richiama inevitabilmente domande più ampie: cosa resterà dei rapporti umani tradizionali? E come si modificherà la nostra identità culturale, se parte delle emozioni verrà condivisa con un software?
Sam Altman ha sollevato un punto che non si può ignorare. ChatGPT non è più soltanto un assistente digitale. È già, per molti, un compagno invisibile. E capire come gestire questo fenomeno sarà una delle sfide cruciali dei prossimi anni.