Ad aprile, per la prima volta, il sito del chatbot di Open AI, ChatGPT, è stato più visitato di Wikipedia negli Stati Uniti. Mentre il traffico sul sito dell’enciclopedia online rimane stabile, le visite su ChatGPT sono quasi triplicate in meno di un anno, passando da meno di 300 milioni nel maggio 2024 a quasi 800 milioni al mese.
- Poche settimane prima della pubblicazione di questi dati, un sondaggio condotto dalla società di ricerche di mercato britannica GWI indicava che questa tendenza si stava confermando a livello mondiale, ad eccezione della Cina, dove l’accesso a ChatGPT è vietato 1.
- Questi dati sembrano indicare che gli utenti non hanno sostituito l’uso tradizionale di Wikipedia, ma utilizzano l’intelligenza artificiale come supporto o per altre attività.
Nel febbraio 2023, solo quattro mesi dopo la pubblicazione gratuita di ChatGPT da parte di OpenAI, il gruppo bancario svizzero UBS gli ha conferito il titolo di applicazione con la crescita più rapida della storia. Il sito ha impiegato solo cinque giorni per raggiungere un milione di utenti e meno di due mesi per superare la soglia dei 100 milioni di utenti attivi al mese.
Nonostante le numerose innovazioni e miglioramenti apportati dal suo lancio, il chatbot è ancora soggetto a distorsioni ed errori fattuali.
- Questi errori sono stati rilevati negli ultimi giorni in un rapporto ufficiale americano sulla salute infantile supervisionato dal segretario alla Salute Robert F. Kennedy Jr. e pubblicato il 22 maggio.
- Tra le 522 note a piè di pagina del documento, almeno 7 studi citati sono stati inventati, un fenomeno noto come «allucinazione». L’epidemiologa Katherine Keyes ha negato di essere l’autrice principale di un articolo citato nel rapporto e utilizzato per sostenere alcune argomentazioni.
- La presenza dell’espressione «oaicite» negli URL indica che le citazioni sono state probabilmente generate da ChatGPT. Il giornale online NOTUS ha anche individuato diversi link inaccessibili, confusione tra autori e numeri di pubblicazione inesistenti, che sono stati successivamente corretti in una seconda versione 2.
Queste allucinazioni si riscontrano oggi in molti settori, dalla ricerca scientifica ai media, ma anche nei tribunali. Secondo il tracker del ricercatore Damien Charlotin, contenuti inventati dall’IA sono stati trovati in quasi 140 sentenze emesse negli Stati Uniti dall’estate 2023 3.
La capacità dei modelli linguistici di grandi dimensioni (LLM) di rispondere alle richieste degli utenti dipende dalla qualità e dalla diversità dei dati su cui sono stati addestrati. Durante lo sviluppo, se i compiti di addestramento sono troppo semplici o mal progettati, il modello può imparare scorciatoie o correlazioni superficiali: in questo caso si dice che l’IA «imbroglia». È proprio quello che è successo con o3, l’ultimo LLM di OpenAI.
- Una valutazione comparativa del comportamento di diversi modelli di IA condotta il mese scorso ha rivelato che o3 era più incline a ignorare le istruzioni fornite dall’utente del chatbot rispetto ad altri modelli.
- Quando sono stati testati su compiti semplici dai ricercatori di Palisade Research, i modelli di Anthropic, Google e xAI si sono lasciati disattivare senza opporre resistenza alla richiesta dell’utente.
- I modelli di OpenAI, invece, «sabotano» il proprio script molto più spesso: fino al 79% delle volte per o3.
- Pertanto, in caso di spegnimento simulato, o3 «rifiuta» di seguire le istruzioni fornite dall’utente, sabotando così il proprio meccanismo di arresto.
Al fine di individuare le allucinazioni e gli errori fattuali generati dai chatbot, alcuni ricercatori americani stanno lavorando allo sviluppo di un valutatore, alimentato dall’IA, in grado di correggere i LLM 4. Nella sua politica di utilizzo, OpenAI mette in guardia dai potenziali rischi di «fornire consulenza legale, medica o finanziaria senza l’esame di un professionista qualificato».
Note
- Victor Tangermann, «Terrifying Survey Claims ChatGPT Has Overtaken Wikipedia», Futurism, 23 maggio 2025.
- Emily Kennard et Margaret Manto, «The MAHA Report Cites Studies That Don’t Exist», NOTUS, 29 maggio 2025.
- AI Hallucination Cases, Damien Charlotin. Consultato il 5 giugno 2025.
- Jerry Wei, Chengrun Yang, Xinying Song, Yifeng Lu, Nathan Hu, Jie Huang, Dustin Tran, Daiyi Peng, Ruibo Liu, Da Huang, Cosmo Du et Quoc V. Le, «Long-form factuality in large language models», arXiv, 7 novembre 2024.